L'AI che fa paura: scienziati e personalità influenti (anche Elon Musk) chiedono pausa per GPT-4

mar 29, 2023

Stop di almeno 6 mesi allo sviluppo del sistema più evoluto di intelligenza artificiale.

L'AI che fa paura: scienziati e personalità influenti (anche Elon Musk) chiedono pausa per GPT-4

Non è tutto oro quello che luccica e gli enormi progressi dell'intelligenza artificiale (AI) cui stiamo assistendo in questa era non hanno solamente importanti lati e risvolti positivi ma pongono anche dubbi di natura etica (ma non solo) che l'avanzamento veloce ed inarrestabile della ricerca non consentono di esaminare e sorvegliare con accorgimenti e soluzioni cha riescano efficacemente ad andare di pari passo con la disponibilità su larga scala delle stesse nuove tecnologie in questione.

L'AI fa paura: scienziati e personalità influenti chiedono una pausa per GPT-4

Scienziati e personalità influenti, fra cui il magnate Elon Musk, hanno sottoscritto una lettera aperta per chiedere una pausa di almeno 6 mesi nello sviluppo di tecnologie AI come GPT-4, il potente sistema multimodale alla base di ChatGPT Plus di OpenAI e di Bing Chat di Microsoft.

Il contenuto della lettera aperta pubblicata su Future of Life (alla quale chiunque può apporre la propria firma di adesione, qui):

  • I sistemi di intelligenza artificiale con intelligenza umana-competitiva possono rappresentare un rischio per la società e l'umanità
  • C'è una gara per sviluppare e implementare sistemi di intelligenza artificiale più potenti
  • Potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando i loro effetti sono positivi e i rischi sono gestibili
  • I laboratori di intelligenza artificiale dovrebbero sospendere per almeno sei mesi l'addestramento di sistemi di intelligenza artificiale più potenti di GPT-4
  • Durante la pausa, i laboratori di intelligenza artificiale e gli esperti indipendenti dovrebbero sviluppare e implementare congiuntamente protocolli di sicurezza per la progettazione e lo sviluppo avanzati di intelligenza artificiale che siano verificati e supervisionati da esperti esterni indipendenti
  • La ricerca e lo sviluppo dell'IA dovrebbero concentrarsi sul rendere i sistemi odierni più accurati, sicuri, trasparenti e affidabili
  • I responsabili politici dovrebbero accelerare lo sviluppo di solidi sistemi di governance dell'IA che includano nuove autorità di regolamentazione, supervisione e tracciamento di sistemi di IA altamente capaci, sistemi di provenienza e watermarking, un solido ecosistema di audit e certificazione, responsabilità per i danni causati dall'IA e solidi finanziamenti pubblici per la tecnica Ricerca sulla sicurezza dell'IA
  • I sistemi di intelligenza artificiale possono essere progettati per il chiaro vantaggio di tutti e dare alla società la possibilità di adattarsi.

Oltre al già citato Musk (che, va detto, ha tentato di rilevare OpenAI qualche stagione fa, senza successo), fra i firmatari della lettera aperta che chiedono una pausa nello sviluppo di GPT-4 figurano personalità influenti come Yoshua Bengio, Stuart Russell, Steve Wozniak, Yuval Noah Harari Andrew Yang.

Articolo di HTNovo
Creative Commons License

Modulo di contatto

Archivio