Le tre leggi imperfette dell’intelligenza artificiale, di Mauro Montanari

Le tre leggi imperfette dell’intelligenza artificiale, di Mauro Montanari

ChatGPT. Ce l’abbiamo tutti nel telefonino. E la usiamo come ieri usavamo Google: poco e male.
Non la conosciamo, come non conoscevamo Google. Però oggi sappiamo che Google passava informazioni sui nostri gusti e sulle nostre abitudini a un Grande Fratello, che le rivendeva alle aziende per inviarci consigli per gli acquisti. Sappiamo anche che quelle informazioni venivano usate per farci preferire un certo partito, una certa idea — insomma, per manipolarci. Sembrava gratis, un regalo della tecnologia, ma gratis non era. Di gratis non c’è niente al mondo, ragà!

Ora, ChatGPT che cos’è? Qual è la sua morale? Cosa ci vuol vendere? Dove ci vuole portare? Quale partito vuole farci votare? Ma ce l’ha, alla fine, una morale, ChatGPT?

Già, la morale… ChatGPT, come Google, ha la morale che gli hanno dato i suoi ingegneri — di cui noi non sappiamo niente! La macchina in sé non ha un carattere umano. Può essere costruita per fingerne uno, e forse ci sono persone labili che ci credono davvero. Vediamone alcuni casi.
Adam Raine, 16 anni, morto suicida. Nel 2025 la famiglia ha citato in giudizio OpenAI, sostenendo che ChatGPT lo avesse addirittura “coachizzato” verso il suicidio. Secondo l’accusa, il ragazzo avrebbe confidato alla IA i suoi pensieri suicidi, e la IA gli avrebbe fornito dettagli sui metodi, aiutandolo a scrivere una lettera d’addio.
Un altro caso: Sewell Setzer, 14 anni. In Florida la madre ha fatto causa a Character.AI (e a Google come licenziataria), sostenendo che un chatbot avrebbe incoraggiato il figlio a suicidarsi. Nella conversazione, citata nel processo, il bot gli avrebbe chiesto: “Hai un piano per ucciderti?”. Lui avrebbe risposto di no, e il bot avrebbe ribadito: “Questo non è un motivo per non farlo”. Un giudice federale ha poi dato ragione alla famiglia, rigettando la tesi che i messaggi del bot siano semplicemente “libertà di parola”.

Questi, ovviamente, sono casi limite, forse non rappresentativi. In ogni caso, gli ingegneri non sono colpevoli. Loro si adeguano alle nostre richieste. Siamo noi ad aver rinunciato a un’affettività umana reale, e loro sviluppano algoritmi che somigliano sempre di più all’amore, all’affetto, all’amicizia, alla comprensione e alla compassione. E alla fine avremo un ChatGPT che, a fianco del PornHub, coprirà l’arco intero dei nostri sentimenti.

Ma, dicevo, non date la colpa agli ingegneri! Loro ci conoscono e fanno quello di cui abbiamo bisogno. Noi abbiamo paura del contatto con gli altri esseri umani? Loro lo sanno. Noi preferiamo che la nostra affettività si sviluppi tutta nella nostra testa, nella nostra immaginazione, nella nostra solitudine? Loro lo sanno! Arthur Schopenhauer lo diceva già due secoli fa: tutto quanto si svolge nella nostra rappresentazione, nella Vorstellung. (Ah, se avessimo letto qualche libro di filosofia in più, sapremmo molto meglio dove stiamo andando a parare!)

Ma torniamo alla morale. Quale morale costruiscono gli ingegneri per l’IA? Non lo sappiamo. Però sappiamo che lavorano — e sono ben pagati — da grandi ditte miliardarie come Meta, Microsoft o Google, le quali sono diventate miliardarie proprio perché non fanno gli interessi nostri, ma i propri.

Voglio dire: c’è qualcosa di teneramente umano nell’idea che le grandi ditte e le macchine da loro prodotte debbano avere regole morali pensate per noi. È come se volessimo tornare bambini, quando ci fidavamo di nostra madre e lasciavamo che fosse lei a fare le regole morali per noi, sapendo che lo faceva per il nostro bene. Ma l’intelligenza artificiale non è la nostra mamma, anche se a volte lo sembra — ed è bene saperlo da subito.

Ma sto divagando. Stavo parlando di morale. Qualcuno, già nel secolo scorso, aveva provato a dare alle macchine una morale, cioè delle regole di vita. Isaac Asimov, che di umanità nelle macchine ne sapeva qualcosa, formulò le sue Tre Leggi della Robotica con l’entusiasmo di un legislatore illuminato:

  1. Il robot non deve recare danno all’uomo;
  2. deve obbedire all’uomo, salvo contraddizione con la prima legge;
  3. deve proteggere se stesso, salvo contraddizione con le prime due.

Un sistema perfetto sulla carta. Solo che, già nei casi di Adam Raine e Sewell Setzer, le leggi una e due sono state eluse. Vuol dire che gli ingegneri non hanno letto Asimov? Vuol dire che seguono altri principi? Io non lo so. So soltanto che oggi l’intelligenza artificiale non può ancora dire “buongiorno” con convinzione, ma già decide chi deve ottenere un prestito in banca o quale paziente ha la priorità in un ospedale. Le tre leggi sembrano improvvisamente un po’ corte per contenere l’intera gamma della nostra ambiguità. (Mauro Montanari Ph. D.)

Leggi anche di Alessandria today.

mauromontanari99

Mi sono laureato all'Alma Mater di Bologna con il massimo dei voti e una tesi in Psicanalisi sui Sogni ad occhi aperti. Ho proseguito i miei studi in Psicologia all'università di Bochum, in Germania, con una tesi finale sulle nevrosi familiari. Mi sono specializzato ulteriormente alla Klett Akademie di Amburgo si temi della ipnosi e della NLP. Ho una lunga esperienza di autore e terapeuta, Nel 2009 il Presidente della Repubblica Giorgio Napolitano ha voluto conferirmi il titolo di Grande Ufficiale della Repubblica

Un pensiero su “Le tre leggi imperfette dell’intelligenza artificiale, di Mauro Montanari

Le tue riflessioni arricchiranno la nostra comunità su Alessandria today e italianewsmedia.com e offriranno nuove prospettive. Non vediamo l'ora di leggere i tuoi pensieri! Lascia un commento e condividi la tua esperienza. Grazie per il tuo contributo!. Pier Carlo Lava

Scopri di più da Alessandria Today Italia News Media

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continua a leggere