Intelligenza artificiale: 16 aziende firmano impegni

Intelligenza artificiale: 16 aziende firmano impegni

Durante il secondo summit sull'IA di Seul, 16 aziende e organizzazioni hanno firmato una serie di impegni per lo sviluppo sicuro della tecnologia.
Intelligenza artificiale: 16 aziende firmano impegni
Durante il secondo summit sull'IA di Seul, 16 aziende e organizzazioni hanno firmato una serie di impegni per lo sviluppo sicuro della tecnologia.

Durante il secondo summit sull’intelligenza artificiale di Seul, 16 aziende hanno sottoscritto una serie di impegni per lo sviluppo sicuro della tecnologia. Si tratta del passo successivo alla dichiarazione di Bletchley firmata da 28 paesi durante il primo summit nel Regno Unito all’inizio di novembre 2023.

Le promesse delle 16 aziende

I Frontier AI Safety Commitments sono stati sottoscritti dalle seguenti aziende/organizzazioni: Amazon, Anthropic, Cohere, Google/Google DeepMind, G42, IBM, Inflection AI, Meta, Microsoft, Mistral AI, Naver, OpenAI, Samsung Electronics, Technology Innovation Institute, xAI e Zhipu.ai. Oltre a note Big Tech e startup che sviluppano tecnologie di IA generativa ci sono anche il Technology Innovation Institute degli Emirati Arabi Uniti e Zhipu.ai della Cina.

I firmatari si impegnano a sviluppare e implementare i propri modelli e sistemi di IA in modo responsabile. Pubblicheranno inoltre un framework di sicurezza incentrato sui rischi gravi in occasione del prossimo vertice sull’intelligenza artificiale in Francia. Uno degli impegni è quello di non sviluppare e distribuire modelli IA, se le mitigazioni non permettono di rimanere sotto specifiche soglie di sicurezza.

Le aziende si impegnano inoltre a seguire una serie di “best practices” durante lo sviluppo dei modelli IA: individuazione delle minacce gravi e nuove, condivisione delle informazioni, misure di salvaguardia contro le minacce interne per proteggere i pesi dei modelli proprietari, incentivi per la scoperta e la segnalazione di problemi e vulnerabilità da parte di terzi, implementazione di meccanismi che consentano agli utenti di capire se il contenuto audio o video è generato dall’intelligenza artificiale, segnalazione di capacità, limitazioni e ambiti di utilizzo appropriato e inappropriato del modello o del sistema, priorità alla ricerca sui rischi sociali posti dai modelli e dai sistemi di IA, sviluppo di modelli e sistemi di IA per aiutare ad affrontare le più grandi sfide del mondo.

Fonte: Gov.uk
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
24 mag 2024
Link copiato negli appunti