Prime crepe nel rapporto tra Intelligenza Artificiale e politica americana. OpenAI ha preso prontamente provvedimenti contro l’uso non autorizzato della sua tecnologia nelle campagne politiche, sospendendo lo sviluppatore responsabile della creazione di Dean.Bot, un chatbot alimentato da ChatGPT progettato per impersonare il candidato presidenziale democratico Dean Phillips.
Lo scopo di Dean.Bot era chiaro: coinvolgere potenziali sostenitori e diffondere il messaggio del candidato. OpenAI, sottolineando la violazione delle loro politiche, ha sospeso lo sviluppatore responsabile. Questo si allinea con le recenti misure preventive di OpenAI contro l’abuso della sua tecnologia, incluso il divieto di “chatbot che impersonano candidati” in vista delle elezioni del 2024.
In risposta all’intervento di OpenAI, Delphi, la startup dietro Dean.Bot, ha inizialmente rimosso ChatGPT dal bot ma ha continuato la sua operazione utilizzando alternative open source. Tuttavia, le azioni di OpenAI hanno portato alla sospensione del chatbot venerdì sera.
In un contesto più ampio, le politiche di OpenAI si estendono alle applicazioni per campagne politiche e lobbying, affermando esplicitamente il loro divieto. Questa mossa da parte di OpenAI riflette le crescenti preoccupazioni per possibili interferenze e diffusione di disinformazione da parte di bot alimentati da intelligenza artificiale in anni cruciali per le elezioni, non solo negli Stati Uniti ma anche in altre democrazie occidentali.
Nel frattempo, è emerso un robocall generato da intelligenza artificiale che impersona il presidente Joe Biden, esortando i membri del Partito Democratico a non votare in una prossima primaria. Kathy Sullivan, una democratica di spicco del New Hampshire, ha definito l’accaduto come un “attacco alla democrazia”, con conseguente indagine in merito. Questo episodio si aggiunge al dibattito in corso sull’uso dell’IA nelle campagne politiche e solleva preoccupazioni sulla privacy, il potenziale per il molestare e la vulnerabilità dei processi democratici alla manipolazione dell’IA negli anni elettorali.
Mentre i gruppi di difesa spingono per una regolamentazione federale, episodi come il robocall AI-generated e il chatbot che impersona un politico evidenziano l’urgenza di affrontare il potenziale caos che l’IA potrebbe causare nelle elezioni. Con i legislatori statali che stanno considerando proposte di legge per affrontare questa pratica, l’episodio sottolinea la necessità di un approccio globale per proteggere i processi democratici dalla manipolazione dell’IA.