Meta: stop allo sviluppo di modelli AI troppo rischiosi?

Meta: stop allo sviluppo di modelli AI troppo rischiosi?

Meta potrebbe interrompere lo sviluppo di sistemi AI troppo rischiosi, come quelli che potrebbero facilitare attacchi informatici o biologici.
Meta: stop allo sviluppo di modelli AI troppo rischiosi?
Meta potrebbe interrompere lo sviluppo di sistemi AI troppo rischiosi, come quelli che potrebbero facilitare attacchi informatici o biologici.

Mark Zuckerberg ha promesso di rendere un giorno disponibile a tutti l’AGI, ovvero un’AI in grado di svolgere qualsiasi compito umano. Ma in un nuovo documento sulla policy aziendale, Meta suggerisce che ci sono scenari in cui potrebbe non rilasciare un sistema AI ritenuto rischioso.

Meta mette un freno ai modelli AI troppo pericolosi

Il documento “Frontier AI Framework” identifica due tipi di modelli AI troppo rischiosi da rilasciare: quelli ad “alto rischio” e quelli a “rischio critico”.

Secondo la definizione di Meta, entrambi i sistemi sono in grado di favorire attacchi informatici, chimici e biologici. La differenza sta nel fatto che i sistemi a “rischio critico” potrebbero causare una “catastrofe irreparabile” nel contesto di impiego proposto, mentre quelli ad “alto rischio” renderebbero un attacco più facile ma non altrettanto affidabile.

Meta fa alcuni esempi, come un attacco informatico completamente automatizzato che riesce a violare anche sistemi di sicurezza aziendali progettati con le più elevate misure di protezione, e la proliferazione di armi biologiche estremamente pericolose. L’elenco delle possibili catastrofi non è esaustivo, ammette l’azienda, ma include quelle che Meta ritiene più urgenti e plausibili come risultato dell’uso improprio di sistemi di intelligenza artificiale avanzati.

Meta a sorpresa non si avvale di test empirici per valutare il livello di rischio, ma si affida al giudizio di ricercatori interni ed esterni. Le loro analisi vengono poi esaminate da figure dirigenziali con il compito di prendere decisioni strategiche. Il motivo? Secondo l’azienda, non esistono ancora strumenti scientifici in grado di misurare in modo definitivo e oggettivo la pericolosità di un sistema AI.

Una risposta alle critiche sull’approccio “aperto”

Se Meta determina che un sistema è ad alto rischio, limiterà l’accesso interno e non lo rilascerà finché non attuerà misure per “ridurre il rischio a livelli moderati“. Se invece un sistema viene ritenuto a rischio critico, Meta implementerà protezioni di sicurezza non specificate per impedirne l’esfiltrazione e interromperà lo sviluppo finché il sistema non potrà essere reso meno pericoloso.

Il Frontier AI Framework di Meta sembra una risposta alle critiche sull’approccio “aperto” dell’azienda allo sviluppo dei sistemi. A differenza di aziende OpenAI, che preferiscono limitare l’accesso ai propri modelli AI rendendoli disponibili solo tramite API controllate, Meta ha scelto una strategia di open source, rendendo liberamente accessibile la sua tecnologia AI.

Un’arma a doppio taglio: i suoi modelli Llama hanno avuto un enorme successo, ma sarebbero anche stati usati da almeno uno stato ostile agli Stati Uniti per sviluppare un chatbot con finalità di difesa militare.

La differenza con DeepSeek

Pubblicando il suo framework, Meta forse mira anche a evidenziare la differenza tra la sua strategia AI aperta e quella della società cinese DeepSeek, che rende i suoi sistemi sì liberamente accessibili, ma con poche misure di sicurezza. In questo modo è più facile generare contenuti tossici o dannosi, come disinformazione, linguaggio offensivo o materiale pericoloso. Recentemente, infatti, è emerso che DeepSeek può creare piani criminali e fornire istruzioni su come costruire armi chimiche.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
4 feb 2025
Link copiato negli appunti