Scale AI ha esposto documenti privati su Google Docs

Scale AI ha esposto documenti privati su Google Docs

Scale AI usa Google Docs per la condivisione di documenti con informazioni sensibili e confidenziali, ma molti erano accessibili a tutti tramite link.
Scale AI ha esposto documenti privati su Google Docs
Scale AI usa Google Docs per la condivisione di documenti con informazioni sensibili e confidenziali, ma molti erano accessibili a tutti tramite link.

In seguito all’acquisizione da parte di Meta, Scale AI ha pubblicato un post sul blog ufficiale per garantire che i dati dei clienti sono al sicuro. Business Insider ha scoperto invece che alcune informazioni confidenziali di Meta, Google e xAI erano accessibili a tutti tramite link.

Errore di Scale AI, nessun hack

Scale AI ha chiarito che rimarrà un’azienda indipendente e Meta non avrà accesso ai dati confidenziali dei clienti (ma Google, OpenAI e xAI hanno già interrotto la collaborazione). I dati sono conservati in modo sicuro attraverso vari livelli di protezione. Business Insider ha trovato invece diversi documenti su Google Docs.

I partner di Scale AI usano il servizio di Google per condividere i file interni. L’azienda di San Francisco ha inavvertitamente esposto dati sensibili e confidenziali dei clienti, tra cui indirizzi email privati. Alcuni documenti potevano essere visualizzati e modificati da chiunque. Bastava solo conoscere il link.

Scale AI non ha subito nessun hack, ma avvierà un’indagine sull’accaduto. Un portavoce ha dichiarato:

Stiamo conducendo un’indagine approfondita e abbiamo disabilitato la possibilità per qualsiasi utente di condividere pubblicamente documenti dai sistemi gestiti da Scale AI. Rimaniamo impegnati a garantire solide misure di sicurezza tecniche per proteggere le informazioni riservate e lavoriamo costantemente per rafforzare le nostre pratiche.

Gli esperti di sicurezza informatica hanno evidenziato i rischi associati alla divulgazione delle informazioni. Le aziende interessate potrebbero diventare bersaglio di vari tipi di attacchi, tra cui phishing, impersonificazione e distribuzione di malware tramite i documenti pubblici.

Alcuni documenti erano relativi a progetti AI di Google, Meta e xAI. Uno di essi svelava che Google ha usato ChatGPT per migliorare Bard (successivamente diventato Gemini). Business Insider ha trovato anche documenti in cui sono elencati i dipendenti dei partner che imbrogliano e quelli con comportamenti sospetti. Alcuni ex partner potevano ancora accedere ai progetti perché Scale AI non ha revocato i permessi.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
25 giu 2025
Link copiato negli appunti