Il capo economista di Microsoft pensa che l’intelligenza artificiale potrebbe rappresentare una grande minaccia per le future elezioni

Il capo economista di Microsoft pensa che l’intelligenza artificiale potrebbe rappresentare una grande minaccia per le future elezioni

Con l’ascesa di chatbot di intelligenza artificiale come ChatGPT , Bing Chat di Microsoft e Bard di Google , si è parlato molto di come questi tipi di sistemi di intelligenza artificiale generativa potrebbero assumere lavori che sono attualmente gestiti da persone. Tuttavia, un alto dirigente di Microsoft ritiene che ci sia una minaccia molto più grande e molto più vicina per le persone con l’uso di strumenti di intelligenza artificiale.

CNBC riferisce che il capo economista di Microsoft Michael Schwarz, in un discorso oggi a un evento del World Economic Forum, ha affermato che le future elezioni potrebbero essere influenzate da “cattivi attori” con l’uso di sistemi di intelligenza artificiale. Ha dichiarato: “Per favore, ricorda, rompere è molto più facile che costruire”. Ha aggiunto:

“Prima che l’IA possa prendere tutti i tuoi posti di lavoro, potrebbe sicuramente fare molti danni nelle mani degli spammer, persone che vogliono manipolare le elezioni”, ha continuato Schwarz parlando a un panel sullo sfruttamento dell’IA generativa.

Gli strumenti di intelligenza artificiale potrebbero infatti creare informazioni dall’aspetto realistico ma false, insieme a immagini e persino video falsi profondi, che potrebbero essere pubblicati sui social network e diventare virali.

All’inizio di questa settimana, Microsoft ha approfondito i dettagli su come svilupperà ed espanderà le sue regole etiche e responsabili per i suoi prodotti AI in tutta l’azienda. Ciò potrebbe essere stato pianificato in anticipo rispetto a un incontro programmato giovedì con i CEO di Microsoft, Google, OpenAI e Anthropic con il vicepresidente degli Stati Uniti Kamala Harris, secondo CNBC .

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *