banner
Casa / Blog / L'ambasciatore dell'intelligenza artificiale di Google cammina sulla linea sottile tra l'hype e la rovina
Blog

L'ambasciatore dell'intelligenza artificiale di Google cammina sulla linea sottile tra l'hype e la rovina

Jun 22, 2024Jun 22, 2024

MOUNTAIN VIEW, California — Nel mezzo dell'entusiasmo per l'intelligenza artificiale alla conferenza annuale degli sviluppatori di Google a maggio, è toccato a James Manyika, il nuovo capo della società "tecnologia e società", parlare degli aspetti negativi dell'intelligenza artificiale.

Davanti a migliaia di persone stipate in un'arena all'aperto, Manyika ha discusso della piaga delle immagini false e di come l'intelligenza artificiale faccia eco al razzismo e al sessismo della società. Nuovi problemi emergeranno, ha avvertito, man mano che la tecnologia migliorerà.

Ma state certi che Google sta adottando “un approccio responsabile all’intelligenza artificiale”, ha detto alla folla. Le parole “audace e responsabile” balenarono su un enorme schermo, facendo impallidire Manyika mentre parlava.

La frase è diventata il motto di Google per l'era dell'intelligenza artificiale, una sorta di sostituto di "non essere cattivo", il mantra che l'azienda ha rimosso dal preambolo del suo codice di condotta nel 2018. La frase riassume il messaggio generale della Silicon Valley sull'intelligenza artificiale. , poiché molti dei leader più influenti del settore tecnologico si affrettano a sviluppare versioni sempre più potenti della tecnologia, avvertendone i pericoli e chiedendo supervisione e regolamentazione da parte del governo.

Manyika, ex consigliere tecnologico dell'amministrazione Obama, nato nello Zimbabwe e con un dottorato in intelligenza artificiale a Oxford, ha abbracciato questa dualità nel suo nuovo ruolo di ambasciatore dell'intelligenza artificiale di Google. Insiste sul fatto che la tecnologia porterà benefici sorprendenti alla civiltà umana e che Google è l’amministratore giusto per questo futuro luminoso. Ma poco dopo la conferenza degli sviluppatori, Manyika ha firmato una dichiarazione, insieme a centinaia di ricercatori sull’intelligenza artificiale, avvertendo che l’intelligenza artificiale rappresenta un “rischio di estinzione” alla pari di “pandemia e guerra nucleare”.

L’intelligenza artificiale è “una tecnologia straordinaria, potente e trasformativa”, ha affermato Manyika in una recente intervista. Allo stesso tempo, ha ammesso, “potrebbero accadere cose brutte”.

I critici dicono che stanno già accadendo cose brutte. Dalla sua pubblicazione lo scorso novembre, ChatGPT di OpenAI ha inventato montagne di false informazioni, incluso un falso scandalo per molestie sessuali che ha nominato un vero professore di diritto. Le versioni open source del modello Stable Diffusion di Stability AI hanno creato un'ondata di immagini realistiche di abusi sessuali su minori, minando gli sforzi per combattere i crimini del mondo reale. Una prima versione di Bing di Microsoft divenne inquietantemente oscura e ostile nei confronti degli utenti. E una recente indagine del Washington Post ha scoperto che diversi chatbot – incluso Bard di Google – raccomandavano diete pericolosamente ipocaloriche, sigarette e persino tenie come modi per perdere peso.

“I prodotti AI di Google, incluso Bard, stanno già causando danni. E questo è il problema dell’“audacia” contrapposta allo sviluppo “responsabile” dell’intelligenza artificiale”, ha affermato Tamara Kneese, ricercatrice senior e direttrice del progetto Data & Society, un’organizzazione no-profit che studia gli effetti dell’intelligenza artificiale.

“Le grandi aziende tecnologiche chiedono una regolamentazione”, ha detto Kneese. "Ma allo stesso tempo, spediscono rapidamente i prodotti con poca o nessuna supervisione."

I regolatori di tutto il mondo stanno ora cercando di decidere come regolamentare la tecnologia, mentre ricercatori rispettati mettono in guardia sui danni a lungo termine, incluso il fatto che un giorno la tecnologia potrebbe superare l’intelligenza umana. Quasi ogni settimana si tiene un'udienza incentrata sull'intelligenza artificiale a Capitol Hill.

Se l’intelligenza artificiale ha problemi di fiducia, lo stesso vale per Google. L’azienda ha lottato a lungo per convincere gli utenti che può salvaguardare la grande quantità di dati che raccoglie dalle loro cronologie di ricerca e dalle caselle di posta elettronica. La reputazione dell'azienda è particolarmente traballante quando si tratta di intelligenza artificiale: nel 2020, ha licenziato la nota ricercatrice di etica dell'intelligenza artificiale Timnit Gebru dopo aver pubblicato un articolo in cui sosteneva che l'intelligenza artificiale dell'azienda potrebbe essere infettata da razzismo e sessismo a causa dei dati su cui è stata addestrata.

Nel frattempo, il colosso della tecnologia è sottoposto a una significativa pressione competitiva: Google ha lanciato il suo chatbot all’inizio di quest’anno nella fretta di recuperare terreno dopo che ChatGPT e altri concorrenti avevano già catturato l’immaginazione del pubblico. Rivali come Microsoft e una serie di start-up ben finanziate vedono l’intelligenza artificiale come un modo per spezzare la presa di Google sull’economia di Internet.