Intelligenza artificiale, il suicidio di Suchir Balaji desta sospetti
La madre di Suchir Balaji, il whistleblower dell’intelligenza artificiale, trovato morto per un apparente suicidio poche settimane dopo aver denunciato l’accaduto, ha rivelato che suo figlio “riteneva che l’intelligenza artificiale fosse un danno per l’umanità”.
Suchir Balaji è stato trovato morto nella sua casa di San Francisco il 26 novembre, tre mesi dopo aver accusato il suo ex datore di lavoro OpenAI di aver violato le leggi sul copyright nello sviluppo di ChatGPT.
Ora la madre di Suchir chiede alla polizia di riaprire le indagini sulla sua morte, affermando che “non sembra una situazione normale”.
“Vogliamo lasciare la questione aperta”, ha detto sua madre, Poornima Ramarao, a Business Insider in un’intervista per discutere degli ultimi mesi di vita del tormentato ingegnere.
“Riteneva che l’intelligenza artificiale fosse un danno per l’umanità”, ha affermato la Ramarao.
Il giovane genio della tecnologia si è unito a OpenAI convinto del suo potenziale nell’apportare benefici alla società, in particolar modo attratto dalla sua filosofia open source.
Ma sua madre ha rivelato che la sua prospettiva è cambiata radicalmente quando l’azienda ha iniziato a focalizzarsi maggiormente sul commercio in seguito al lancio di ChatGPT.
Ha descritto il momento orribile in cui si è resa conto che suo figlio era morto quando ha visto una barella arrivare al suo appartamento di San Francisco. “Stavo aspettando di vedere l’assistenza medica, gli infermieri o qualcuno che scendeva dal furgone”, ha detto.
“Ma è arrivata una barella. Una semplice barella. Sono corsa e ho chiesto alla persona. Ha detto: “Abbiamo un cadavere in quell’appartamento”.”
La morte di Suchir Balaji è avvenuta solo pochi mesi dopo le sue dimissioni da OpenAI per motivi etici e poche settimane dopo essere stato citato in giudizio dal New York Times per violazione del copyright contro l’azienda.
Ad agosto ha lasciato OpenAI perché “non voleva più contribuire a tecnologie che, a suo avviso, avrebbero portato alla società più danni che benefici”, ha riportato il Times.
“Se credi a ciò in cui credo io, allora devi semplicemente andartene”, aveva detto Suchir Balaji al Times in una delle sue ultime interviste.
Inizialmente la polizia ha dichiarato che si è trattato di suicidio e ha detto alla madre che le riprese delle telecamere di sorveglianza mostravano che Suchir era solo.
Tuttavia, i suoi genitori hanno disposto un’autopsia privata, completata all’inizio di dicembre, che a loro dire ha prodotto risultati preoccupanti.
“Vogliamo lasciare aperta la questione”, ha detto Poornima Ramarao. “Non sembra una situazione normale”.
La famiglia sta collaborando con un avvocato per sollecitare la polizia di San Francisco a riaprire il caso per una “indagine appropriata”.
Negli ultimi due anni, aziende come OpenAI sono state citate in giudizio da vari privati e aziende per rivendicazioni relative al loro materiale protetto da copyright.
Il ruolo e le conoscenze di Balaji nei procedimenti legali contro la società sono stati considerati “cruciali”.
Il New York Times è stato coinvolto in una causa contro OpenAI e il suo partner principale, Microsoft, che hanno entrambi negato le affermazioni secondo cui avrebbero utilizzato milioni di articoli pubblicati per informare l’intelligence e hanno iniziato a competere con l’emittente.
Il 18 novembre, il giornale ha depositato una lettera presso la corte federale in cui indicava Balaji come persona in possesso di “documenti unici e pertinenti” che sarebbero stati utilizzati nella loro causa contro OpenAI.
Nella loro causa si legge: “Microsoft e OpenAI si limitano a prendere il lavoro di reporter, giornalisti, editorialisti, redattori e altri che contribuiscono al lavoro dei giornali locali, il tutto senza alcun riguardo per gli sforzi, e tanto meno per i diritti legali, di coloro che creano e pubblicano le notizie su cui fanno affidamento le comunità locali”.
Mentre altri ricercatori hanno messo in guardia sui potenziali rischi futuri della tecnologia, Balaji aveva dichiarato al Times di ritenere che il rischio fosse molto più “immediato” di quanto temuto.
“Pensavo che l’intelligenza artificiale potesse essere utilizzata per risolvere problemi irrisolvibili, come curare malattie e fermare l’invecchiamento”, aveva affermato.
“Pensavo che avremmo potuto inventare una specie di scienziato che potesse aiutarci a risolverli.”
Suchir Balaji aveva affermato di ritenere che le minacce rappresentate dai chatbot come ChatGPT stessero distruggendo la redditività commerciale degli individui, delle aziende e dei servizi Internet che hanno creato i dati digitali utilizzati per addestrare tali sistemi.
“Questo non è un modello sostenibile per l’intero ecosistema di Internet”, aveva detto.
Mentre OpenAI, Microsoft e altre aziende hanno affermato che l’uso dei dati Internet per addestrare la tecnologia rientra nel “fair use”, Suchir Balaji riteneva che i criteri non fossero rispettati.