Intelligenza Artificiale: dubbi etici e morali.

Forum di discussione sulla politica italiana, i partiti e le istituzioni.
Rispondi
Avatar utente
nerorosso
Messaggi: 677
Iscritto il: 8 giu 2019, 17:34

Intelligenza Artificiale: dubbi etici e morali.

Messaggio da nerorosso » 11 nov 2019, 0:01

Il sempre bravissimo Roberto Pecchioli in un lungo (diviso in due parti) articolo esterna i mille dubbi che attanagliano l'Uomo (homo) di fronte al concetto di "intelligenza artificiale".
Che cosa sarà la macchina senziente? Avrà coscienza di sé? Avrà un senso morale? Uno etico?
O sarà piuttosto la nostra fine?

Prima parte

https://www.ereticamente.net/2019/11/in ... hioli.html

Seconda parte

https://www.ereticamente.net/2019/11/in ... hioli.html

Lungo ma molto interessante.
PATRIA O MUERTE!!!

(Fidel Castro)

Vento
Messaggi: 122
Iscritto il: 8 giu 2019, 23:48

Re: Intelligenza Artificiale: dubbi etici e morali.

Messaggio da Vento » 12 nov 2019, 22:05

Grazie amico.

E’ un tema senz’altro affascinante, che ho avuto la fortuna di conoscere dall’interno, avendo lavorato dagli anni 80 come ricercatore CNR proprio alla ideazione e progettazione di modelli e sistemi basati sulla conoscenza, da tradurre in software nel campo applicativo giuridico (legislativo), uno dei più attivi insieme a medicina e linguistica (traduzione automatica) nella A. I. iniziale. La robotica è venuta dopo, ma comunque le idee ispiratrici e i metodi sono molto simili nei vari campi applicativi.

A quel tempo due filosofie si contrapponevano: sistemi basati sulla conoscenza (su modelli) e sistemi basati sull’esperienza (grandi quantità di informazioni, oggi si dice big data). Ad esempio io mi divertii, nel tempo libero, ad insegnare al computer il gioco della dama, descrivendogli la natura del gioco che cercai di modellare (le regole, gli agenti, le strategie, ecc.), mentre nel frattempo altri seguivano la strada della ’stupidità’, dando al computer le informazioni su infinite partite di giocatori abili e dicendogli di seguirne l’esempio, senza però capire nulla del gioco in sé. Dopo anni, la seconda strada si rivelò vincente ed oggi giocatori automatici di scacchi basati su dati vincono anche campioni umani. Inoltre la strada della modellazione della conoscenza si rivelò ardua ed io stesso, dopo aver insegnato al computer la regole del gioco della dama, mi arresi e rinunciai alla descrizione delle strategie.

Già dall’inizio mi fu chiaro che moltissimi sono i problemi che questa ricerca e tecnologia risolve, ma anche che crea. Ricordo che progettammo un ‘sistema esperto’ (come si diceva) in valutazione del danno da sinistro stradale, insieme ad un magistrato ed un medico legale. Una cosina semplice, ma sufficiente ad allertare gli addetti: il presidente dell’ordine dei medici legali ad un convegno di presentazione, scherzando ma non troppo, minacciò denuncia per abuso di esercizio di professione. Ed aveva ragione. Nell’entusiasmo rivoluzionario per la novità, che poteva semplificare e velocizzare situazioni intricate e ridurre errori e abusi, non avevamo pensato alle ripercussioni sugli operatori del settore. Stoltezza giovanile. E questo avvenne ovunque e a partire dagli USA non si parlò più di sistemi esperti, ma di sistemi di aiuto alle professioni coinvolte, orientando diversamente i progetti. Così ad esempio i notai italiani furono svelti a capire le potenzialità del settore e ad impadronirsene, sostenendo e controllando questo tipo di progetti.

Io ho visto solo grandi potenzialità, ma anche grandi resistenze dagli ambienti interessati. Il progetto principale cui ho lavorato a lungo era un sistema di videoscrittura specializzato in testi di legge, ad uso di legislatori, dove avevo, con i miei colleghi, infilato funzioni A.I. sempre più complesse e ambiziose, di generazione automatica vera e propria di testi di legge, semplicemente indicando finalità e tanti altri elementi, che poi il computer, usando anche A.I. linguistica (il progetto comprendeva anche ricercatori di quel settore), riusciva a organizzare in testi in linguaggio naturale. Ed anche qui ho riscontrato ostilità da parte della classe politica (funzionari parlamentari, ecc.) e non mi stupisce, perché rendere razionali, trasparenti e comprensibili le leggi sarebbe per loro un brutto scherzo.
Quindi dalla mia piccola esperienza in campo sociale-politico ho ricavato l’impressione che A.I. sarebbe di grande aiuto per il cittadino e grande minaccia per l’amministratore e il politico nostrale. Non a caso le nostre realizzazioni suscitarono interesse soprattutto in paesi come l’Olanda e ultimamente anche dalla Cina mi è arrivato un segno di interessamento, ma non certo dall’Italia.

Sono dieci anni che non seguo più A.I.., quindi non sono aggiornato. Credo comunque che l’allarmismo sui sistemi intelligenti e addirittura sensibili, in grado di sopraffare l’uomo, serva a scrivere articoli e vendere libri. Certo è impressionante lo sviluppo della robotica e in particolare delle tecniche di riconoscimento di persone, situazioni, ecc., che possono aiutare le politiche di sicurezza, ma senz’altro generare qualche apprensione. Me se si vogliono società urbane complesse e affollate, questo è il prezzo da pagare. Trovo molto più allarmante il progresso della biologia e genetica in particolare. Come accenna anche l’articolista, chissà cosa potrà avvenire in laboratori avventurosi.

Avatar utente
nerorosso
Messaggi: 677
Iscritto il: 8 giu 2019, 17:34

Re: Intelligenza Artificiale: dubbi etici e morali.

Messaggio da nerorosso » 12 nov 2019, 23:53

Vento ha scritto:
12 nov 2019, 22:05
Grazie amico.

E’ un tema senz’altro affascinante, che ho avuto la fortuna di conoscere dall’interno, avendo lavorato dagli anni 80 come ricercatore CNR proprio alla ideazione e progettazione di modelli e sistemi basati sulla conoscenza, da tradurre in software nel campo applicativo giuridico (legislativo), uno dei più attivi insieme a medicina e linguistica (traduzione automatica) nella A. I. iniziale. La robotica è venuta dopo, ma comunque le idee ispiratrici e i metodi sono molto simili nei vari campi applicativi.

A quel tempo due filosofie si contrapponevano: sistemi basati sulla conoscenza (su modelli) e sistemi basati sull’esperienza (grandi quantità di informazioni, oggi si dice big data). Ad esempio io mi divertii, nel tempo libero, ad insegnare al computer il gioco della dama, descrivendogli la natura del gioco che cercai di modellare (le regole, gli agenti, le strategie, ecc.), mentre nel frattempo altri seguivano la strada della ’stupidità’, dando al computer le informazioni su infinite partite di giocatori abili e dicendogli di seguirne l’esempio, senza però capire nulla del gioco in sé. Dopo anni, la seconda strada si rivelò vincente ed oggi giocatori automatici di scacchi basati su dati vincono anche campioni umani. Inoltre la strada della modellazione della conoscenza si rivelò ardua ed io stesso, dopo aver insegnato al computer la regole del gioco della dama, mi arresi e rinunciai alla descrizione delle strategie.

Già dall’inizio mi fu chiaro che moltissimi sono i problemi che questa ricerca e tecnologia risolve, ma anche che crea. Ricordo che progettammo un ‘sistema esperto’ (come si diceva) in valutazione del danno da sinistro stradale, insieme ad un magistrato ed un medico legale. Una cosina semplice, ma sufficiente ad allertare gli addetti: il presidente dell’ordine dei medici legali ad un convegno di presentazione, scherzando ma non troppo, minacciò denuncia per abuso di esercizio di professione. Ed aveva ragione. Nell’entusiasmo rivoluzionario per la novità, che poteva semplificare e velocizzare situazioni intricate e ridurre errori e abusi, non avevamo pensato alle ripercussioni sugli operatori del settore. Stoltezza giovanile. E questo avvenne ovunque e a partire dagli USA non si parlò più di sistemi esperti, ma di sistemi di aiuto alle professioni coinvolte, orientando diversamente i progetti. Così ad esempio i notai italiani furono svelti a capire le potenzialità del settore e ad impadronirsene, sostenendo e controllando questo tipo di progetti.

Io ho visto solo grandi potenzialità, ma anche grandi resistenze dagli ambienti interessati. Il progetto principale cui ho lavorato a lungo era un sistema di videoscrittura specializzato in testi di legge, ad uso di legislatori, dove avevo, con i miei colleghi, infilato funzioni A.I. sempre più complesse e ambiziose, di generazione automatica vera e propria di testi di legge, semplicemente indicando finalità e tanti altri elementi, che poi il computer, usando anche A.I. linguistica (il progetto comprendeva anche ricercatori di quel settore), riusciva a organizzare in testi in linguaggio naturale. Ed anche qui ho riscontrato ostilità da parte della classe politica (funzionari parlamentari, ecc.) e non mi stupisce, perché rendere razionali, trasparenti e comprensibili le leggi sarebbe per loro un brutto scherzo.
Quindi dalla mia piccola esperienza in campo sociale-politico ho ricavato l’impressione che A.I. sarebbe di grande aiuto per il cittadino e grande minaccia per l’amministratore e il politico nostrale. Non a caso le nostre realizzazioni suscitarono interesse soprattutto in paesi come l’Olanda e ultimamente anche dalla Cina mi è arrivato un segno di interessamento, ma non certo dall’Italia.

Sono dieci anni che non seguo più A.I.., quindi non sono aggiornato. Credo comunque che l’allarmismo sui sistemi intelligenti e addirittura sensibili, in grado di sopraffare l’uomo, serva a scrivere articoli e vendere libri. Certo è impressionante lo sviluppo della robotica e in particolare delle tecniche di riconoscimento di persone, situazioni, ecc., che possono aiutare le politiche di sicurezza, ma senz’altro generare qualche apprensione. Me se si vogliono società urbane complesse e affollate, questo è il prezzo da pagare. Trovo molto più allarmante il progresso della biologia e genetica in particolare. Come accenna anche l’articolista, chissà cosa potrà avvenire in laboratori avventurosi.
Credo che l'esempio più interessante da te citato sia quello degli scacchi.
Posto naturalmente che negli anni '80 di cui parli la capacità di calcolo dei processori era enormemente inferiore a quella attuale. Ma l'esempio è interessante proprio perchè in realtà definisce il computer per ciò che è: una macchina "stupida", il cui buon funzionamento è condizionato dagli input di programmazione.
Diverso è il discorso della IA come la si intende oggigiorno. Credo che il concetto implichi la capacità di apprendimento dal nulla ma soprattutto la "coscienza di sé".

Ma una "macchina" dotata di "coscienza di sé" implica anche dubbi su etica e morale della macchina stessa, questo in funzione naturalmente dei compiti stessi chè verranno affidati alla IA.
Che cosa dovrà e potrà gestire la futura IA?

Ma soprattutto in base a quale criterio, che essendo "intelligenza" dovrà utilizzare un "criterio", qualunque esso sia?

Tu ricorderai sicuramente il film di Kubrik "2001, odissea nello spazio".
Qui si ha a che fare con una IA, chiamata HAL 9000, che per una serie di motivi, usando il proprio "raziocinio", decide che l'equipaggio umano deve essere eliminato.

Che cosa succederebbe se una futura IA, deputata al controllo di sistemi vitali per il Genere Umano, decidesse ad esempio che questo è null'altro che un parassita dannoso all'ecologia del Cosmo, e che per questo merita di essere eliminato?

Quale sarebbe il criterio "etico" e "morale" della macchina, ammesso e non concesso che una macchina possa avere un'"etica" e una "moralità"?

Troppi dubbi mi attanagliano in merito…
PATRIA O MUERTE!!!

(Fidel Castro)

Vento
Messaggi: 122
Iscritto il: 8 giu 2019, 23:48

Re: Intelligenza Artificiale: dubbi etici e morali.

Messaggio da Vento » 13 nov 2019, 0:35

"Tu ricorderai sicuramente il film di Kubrik "2001, odissea nello spazio".
Qui si ha a che fare con una IA, chiamata HAL 9000, che per una serie di motivi, usando il proprio "raziocinio", decide che l'equipaggio umano deve essere eliminato. "


Naturalmente non sono d'accordo. HAL usa il raziocinio di chi l'ha programmata a reagire in un certo modo, a fronte di certe situazioni. Per quanto sofisticato sia il suo raziocinio, sempre predeterminato è e comunque ... basta staccare la spina.
La capacità di apprendimento è fattibilissima, ma non dal nulla, bensì all'interno di uno schema predisposto. La macchina non può innovare.
La coscienza di se della macchina è una nostra fantasia.

Avatar utente
Michelangelo
Messaggi: 354
Iscritto il: 23 giu 2019, 15:00

Re: Intelligenza Artificiale: dubbi etici e morali.

Messaggio da Michelangelo » 14 nov 2019, 15:24

nerorosso ha scritto:
11 nov 2019, 0:01
Il sempre bravissimo Roberto Pecchioli in un lungo (diviso in due parti) articolo esterna i mille dubbi che attanagliano l'Uomo (homo) di fronte al concetto di "intelligenza artificiale".
Che cosa sarà la macchina senziente? Avrà coscienza di sé? Avrà un senso morale? Uno etico?
O sarà piuttosto la nostra fine?

Prima parte

https://www.ereticamente.net/2019/11/in ... hioli.html

Seconda parte

https://www.ereticamente.net/2019/11/in ... hioli.html

Lungo ma molto interessante.
Argomento e articolo estremamente interessante Smiling
Sono assolutamente ignorante in materia.
Dal punto di vista etico, è difficile dare un giudizio oggi, non siamo ancora pronti per immaginare che il genere umano venga integrato a robot in grado di provare anche emozioni, sentimenti.
La loro presenza potrebbe evidenziare ancora di più i "nostri" limiti e sfociare in carenze di autostima o gratificazione morale ( in ambito lavorativo)

Primi dubbi, banali: Tutti i lavoratori umani che verranno sostituiti, cosa faranno?
Se al mondo siamo già così numerosi e con un tasso di disoccupazione globale significativo, con l'aggiunta di robot ci sarebbe un ulteriore esubero di individui( robotici e umani). Non so come potrebbe essere gestito questo problema.
(A meno che, non ci sia un disegno diabolico di eliminare- in qualche modo- il 50 % di esseri umani a vantaggio dei robot! :? )

Aspetti concretamente positivi: vedrei molto bene il robot in sostituzione dei mestieri dove non è ammesso l'errore umano, ad esempio per gli interventi chirurgici.
E troverei una formula per impiegarli nei mezzi di trasporto, in modo da evitare gli incidenti automobilistici ( mortali).
Nonché, come agente di polizia, per sventare rapine, terrorismo o qualsivoglia intervento a rischio.

Considerazioni globali: nel complesso- a caldo - vedo più rischi che benefici, perché COMUNQUE , l'intelligenza artificiale e il suo impiego( se farne un uso smodato o assennato) è GUIDATA e gestita da UOMINI...e l'uomo è... e rimarrà la macchina più pericolosa del mondo! :!:
NON MI FIDO DELL'UOMO.. della macchina SI'! :grin:
“Un popolo che dimentica i fasti del patriottismo è un popolo in decadenza. Il passato segna i doveri dell’avvenire.”
Francesco Crispi

Avatar utente
Shamash
Messaggi: 149
Iscritto il: 9 giu 2019, 16:37

Re: Intelligenza Artificiale: dubbi etici e morali.

Messaggio da Shamash » 14 nov 2019, 15:52

Michelangelo ha scritto:
14 nov 2019, 15:24
Argomento e articolo estremamente interessante Smiling
Concordo.
L'argomento è di grande attualità e presto farà parte della realtà di tutti noi.
L'AI è il "punto di arrivo" in tutta una serie di discipline che ad oggi sfruttano le capacità neuronali umane e che le studiano per comprenderne meglio le dinamiche. Un punto che si è toccato nell'articolo e che, seppur in forma di quesito, fa luce sulla questione è la coscienza. Ancora oggi ci sono schiere di psicologi che ne studiano le dinamiche e non vi è ancora una conoscenza unanime e approfondita circa un elemento che si considera squisitamente umano. Che cosa sia, dove si formi (o quantomeno quali aree cerebrali ne siano interessate/attivate) e come operi è uno dei grandi misteri dell'essere umano e della straordinaria "macchina" che si porta appresso nel capo. L'AI dovrà necessariamente essere affinata nel tempo, sino ad investire come una forte onda un'infinità di settori oggi prerogativa assoluta dell'essere umano. Che possa essere un valido ausilio è fuori discussione, soprattutto dove serve automazione, prendere decisioni "imparziali" e nelle attività pericolose, dove l'essere umano è inevitabilmente condizionato da altri elementi quali l'emotività o il pregiudizio. In tale contesto è bene ricordare anche il termine di deep learning, che va di pari passo con l'AI. Si sfruttano i medesimi principi della psicologia cognitiva ed evolutiva (e sotto molti aspetti anche di quella sociale, che sarà l'obiettivo finale), tuttavia il pericolo paventato di "sostituzione" dell'essere umano con le macchine credo sia ancora molto remoto. Proprio perché non conosciamo ancora totalmente il cervello umano e le sue straordinarie capacità, non possiamo di conseguenza riprodurle nella sua interezza in una macchina. Tutto ciò che è stato inventato nel corso dell'umanità ha preso spunto, è stato copiato o ispirato da elementi già presenti in natura o nel corpo umano, dunque non si può imitare qualcosa che ancora non si conosce totalmente. Forse, un giorno, si arriverà anche a questo, ma appunto la questione etica deve essere di primaria importanza, affinché le macchine siano sempre considerate tali.
«Non è necessario sperare nella vittoria per battersi con onore per la propria bandiera.» 🇮🇹 [Guglielmo I d'Orange]
«Dove regna la saggezza, non vi è alcun conflitto tra pensiero e sentimento.» [Carl Gustav Jung]

Avatar utente
carletto3
Messaggi: 857
Iscritto il: 25 giu 2019, 2:20

Re: Intelligenza Artificiale: dubbi etici e morali.

Messaggio da carletto3 » 14 nov 2019, 18:57

Non mi intendo affatto di I.A. computer e apparecchi elettronici evoluti ma una cosa la ricordo ....lessi su Focus tempo fa che per riprodurre i neuroni e le loro interconnessioni contenuti in un cervello umano e contenerli non sarebbero bastati 1000 campi di calcio......sono miliardi nel cervello i neuroni....e tutti hanno un fine e una connessione tra di loro non fatte a caso....anche potendolo e volendolo costruire un coso del genere si avvicinerebbe solo come una pallidissima imitazione di un cervello umano...di certo non potrebbe mai avere una capacita' di ragionamento e apprendimento tali da poter evolvere e crescere.
E' solo una pia illusione il credere di poter realizzare una qualsiasi intelligenza artificiale......

PS:Pero' ricordo di aver letto un breve racconto di I.Asimov quando ero piccolo:(breve riassuntino) In un laboratorio c'erano molti scienziati e un enorme computer al quale erano collegati tutti i computer esistenti al mondo e al computer dopo averlo avviato e tutto messo a regime fu fatta una sola domanda,forse la piu' importante di qualsiasi altra:esiste Dio?
Ci fu un lampo,gli interruttori del computer si bloccarono e si fusero sull'On e dall'enorme macchinario arrivo' la risposta:"Adesso sì!"
Meditate gente....meditate.
La realta' è solo un'allucinazione dovuta a carenza di alcol (...un saggio)

Sayon
Messaggi: 1582
Iscritto il: 9 giu 2019, 7:58

Re: Intelligenza Artificiale: dubbi etici e morali.

Messaggio da Sayon » 14 nov 2019, 19:15

nerorosso ha scritto:
11 nov 2019, 0:01
Il sempre bravissimo Roberto Pecchioli in un lungo (diviso in due parti) articolo esterna i mille dubbi che attanagliano l'Uomo (homo) di fronte al concetto di "intelligenza artificiale".
Che cosa sarà la macchina senziente? Avrà coscienza di sé? Avrà un senso morale? Uno etico?
O sarà piuttosto la nostra fine?

Prima parte

https://www.ereticamente.net/2019/11/in ... hioli.html

Seconda parte

https://www.ereticamente.net/2019/11/in ... hioli.html

Lungo ma molto interessante.
L'intelligenza artificiale posiede l'etica di chi l'ha costruita. Non essendo la macchina capace delle mille sfumature che ha la mente umana, sara' sempre inferiore al' intelligenza umana per quanto riguarda le questioni etiche o morali.

Rispondi