L'AI che fa paura: scienziati e personalità influenti (anche Elon Musk) chiedono pausa per GPT-4

mar 29, 2023

Stop di almeno 6 mesi allo sviluppo del sistema più evoluto di intelligenza artificiale.

L'AI che fa paura: scienziati e personalità influenti (anche Elon Musk) chiedono pausa per GPT-4

Non è tutto oro quello che luccica e gli enormi progressi dell'intelligenza artificiale (AI) cui stiamo assistendo in questa era non hanno solamente importanti lati e risvolti positivi ma pongono anche dubbi di natura etica (ma non solo) che l'avanzamento veloce ed inarrestabile della ricerca non consentono di esaminare e sorvegliare con accorgimenti e soluzioni cha riescano efficacemente ad andare di pari passo con la disponibilità su larga scala delle stesse nuove tecnologie in questione.

L'AI fa paura: scienziati e personalità influenti chiedono una pausa per GPT-4

Scienziati e personalità influenti, fra cui il magnate Elon Musk, hanno sottoscritto una lettera aperta per chiedere una pausa di almeno 6 mesi nello sviluppo di tecnologie AI come GPT-4, il potente sistema multimodale alla base di ChatGPT Plus di OpenAI e di Bing Chat di Microsoft.

Il contenuto della lettera aperta pubblicata su Future of Life (alla quale chiunque può apporre la propria firma di adesione, qui):

  • I sistemi di intelligenza artificiale con intelligenza umana-competitiva possono rappresentare un rischio per la società e l'umanità
  • C'è una gara per sviluppare e implementare sistemi di intelligenza artificiale più potenti
  • Potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando i loro effetti sono positivi e i rischi sono gestibili
  • I laboratori di intelligenza artificiale dovrebbero sospendere per almeno sei mesi l'addestramento di sistemi di intelligenza artificiale più potenti di GPT-4
  • Durante la pausa, i laboratori di intelligenza artificiale e gli esperti indipendenti dovrebbero sviluppare e implementare congiuntamente protocolli di sicurezza per la progettazione e lo sviluppo avanzati di intelligenza artificiale che siano verificati e supervisionati da esperti esterni indipendenti
  • La ricerca e lo sviluppo dell'IA dovrebbero concentrarsi sul rendere i sistemi odierni più accurati, sicuri, trasparenti e affidabili
  • I responsabili politici dovrebbero accelerare lo sviluppo di solidi sistemi di governance dell'IA che includano nuove autorità di regolamentazione, supervisione e tracciamento di sistemi di IA altamente capaci, sistemi di provenienza e watermarking, un solido ecosistema di audit e certificazione, responsabilità per i danni causati dall'IA e solidi finanziamenti pubblici per la tecnica Ricerca sulla sicurezza dell'IA
  • I sistemi di intelligenza artificiale possono essere progettati per il chiaro vantaggio di tutti e dare alla società la possibilità di adattarsi.

Oltre al già citato Musk (che, va detto, ha tentato di rilevare OpenAI qualche stagione fa, senza successo), fra i firmatari della lettera aperta che chiedono una pausa nello sviluppo di GPT-4 figurano personalità influenti come Yoshua Bengio, Stuart Russell, Steve Wozniak, Yuval Noah Harari Andrew Yang.

Modulo di contatto

Archivio

Logo del sito

Oh no! Hai un AdBlocker attivo

Il nostro sito si sostiene grazie alla pubblicità. Per continuare a offrirti contenuti di qualità, ti chiediamo gentilmente di disattivare il tuo adblocker per poter navigare.

Come disattivare il blocco

  • AdBlock / uBlock: Clicca sull'icona dell'estensione e disattivala per questo sito.
  • Altri Blocker: Trova l'opzione "Aggiungi alla whitelist" o "Siti attendibili" e inserisci il nostro dominio.