Padrini dell’AI si battono per un'intelligenza artificiale sicura ed etica

Padrini dell’AI si battono per un'intelligenza artificiale sicura ed etica

Un gruppo di esperti avverte che l'AI potrebbe rapidamente superare gli esseri umani in molti compiti e creare problemi su scala sociale.
Padrini dell’AI si battono per un'intelligenza artificiale sicura ed etica
Un gruppo di esperti avverte che l'AI potrebbe rapidamente superare gli esseri umani in molti compiti e creare problemi su scala sociale.

Un gruppo di esperti di intelligenza artificiale ha lanciato un appello alle aziende e ai governi affinché si assumano le loro responsabilità nel garantire la sicurezza e l’etica dei sistemi AI. Tra i firmatari della lettera, ci sono Yoshua Bengio e Geoffrey Hinton, considerati due dei tre “padrini dell’Artificial Intelligence” per i loro contributi fondamentali alla disciplina. Il gruppo esprime la sua preoccupazione per i possibili pericoli che potrebbero derivare da un’evoluzione troppo rapida e poco controllata di questa tecnologia.

Gli esperti avvertono che l’intelligenza artificiale potrebbe presto raggiungere e superare le capacità umane in molti ambiti. Questo potrebbe avere delle conseguenze negative per la società, se non si adottano delle misure per garantire un uso etico e responsabile dell’AI. Gli esperti sottolineano alcuni dei rischi che l’IA potrebbe comportare, come:

  • Aumentare le disuguaglianze sociali, favorendo chi ha accesso all’IA e penalizzando chi ne è escluso o sfruttato.
  • Minare la coesione sociale, creando conflitti, polarizzazione e sfiducia tra i gruppi sociali.
  • Alterare lA percezione della realtà, diffondendo informazioni false, manipolate o ingannevoli, che possono influenzare le nostre opinioni e le nostre decisioni.

Come prevenire i rischi dell’AI

Per prevenire e contrastare i rischi dell’intelligenza artificiale, il gruppo di esperti propone una serie di politiche da adottare a livello di aziende, governi e società. Tra le loro raccomandazioni, ci sono:

  • Destinare il 33% delle risorse di ricerca e sviluppo all’AI sicura ed etica, sia da parte dei laboratori di IA che dei governi. Questo significa investire in progetti che si occupano di garantire la qualità, la trasparenza, la responsabilità e il benessere umano nell’uso dell’intelligenza artificiale.
  • Istituire una supervisione e un monitoraggio dell’AI da parte dei governi, attraverso delle agenzie indipendenti che possano valutare l’impatto sociale, economico e ambientale e intervenire in caso di violazioni dei diritti umani o della legalità.
  • Attuare politiche di scaling responsabile da parte dei laboratori di IA, ovvero limitare la crescita e la diffusione dei sistemi di IA autonomi avanzati, fino a quando non si dimostrino sicuri, affidabili e compatibili con i valori umani.

Il gruppo di esperti di intelligenza artificiale propone anche altre idee per rendere più sicuro e responsabile l’uso della tecnologia. Tra queste, ci sono:

  • Introdurre un sistema di licenze per l’addestramento dei sistemi di IA, che richieda agli sviluppatori di dimostrare la qualità e l’affidabilità dei loro algoritmi e dei loro dati.
  • Migliorare la compartimentazione delle informazioni all’interno dei laboratori di IA, per evitare che le conoscenze e le competenze acquisite possano essere usate per scopi malevoli o illegali.
  • Proteggere legalmente gli informatori dei principali laboratori di IA, che denunciano eventuali abusi o violazioni commesse dai loro datori di lavoro o colleghi nell’ambito dell’IA.

I padrini dell’AI chiedono responsabilità e regolamentazione

Tra i firmatari della lettera, ci sono due dei tre “padrini dell’IA”, Yoshua Bengio e Geoffrey Hinton, che si sono distinti per il loro impegno a favore di un’intelligenza artificiale sicura ed etica. Hinton ha lasciato il suo lavoro a Google per esprimere la sua critica verso l’uso improprio dell’IA, come la creazione di deepfakes, o di cloni di voci sintetiche. Bengio ha invece testimoniato al Congresso americano sulle minacce che l’IA può rappresentare per la democrazia e la sicurezza nazionale.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
25 ott 2023
Link copiato negli appunti