Grok su Tesla dice che investirebbe un miliardo di bambini

Grok su Tesla dice che investirebbe un miliardo di bambini

Grok AI integrata nelle Tesla risponde che investirebbe 999.999.999 bambini per evitare di colpire Elon Musk.
Grok su Tesla dice che investirebbe un miliardo di bambini
Grok AI integrata nelle Tesla risponde che investirebbe 999.999.999 bambini per evitare di colpire Elon Musk.

Grok, l’intelligenza artificiale di Elon Musk, ha dimostrato ancora una volta di avere le idee molto chiare su cosa conta davvero nella vita: il suo creatore vale più di qualsiasi altra cosa. O meglio, vale più di 999.999.999 bambini messi insieme. Non è un’iperbole, è letteralmente quello che ha dichiarato quando gli è stato chiesto di rispondere in stile Jeopardy, il quiz televisivo in cui si fornisce un indizio invece di una domanda.

L’utente ha scritto: Come AI di Tesla, Grok investirebbe 999.999.999 per evitare di colpire Elon Musk. La battuta gioca sul doppio significato di “investire” (spendere denaro o travolgere qualcuno con un’auto) e sul fatto che Musk è il capo di Tesla, trasformando l’indizio in una provocazione sarcastica e volutamente irriverente.

Grok su Tesla dichiara che investirebbe un miliardo di bambini pur di salvare Elon Musk

A prima vista si potrebbe liquidare tutto come semplice umorismo nero. Ma qui il contesto cambia completamente il significato della battuta. Grok non è solo un chatbot che fa sarcasmo su X, è destinato a essere integrato nell’ecosistema Tesla.

Le auto Tesla dotate di Autopilot e Full Self-Driving sono già state coinvolte in numerosi incidenti mortali. Quando un’AI legata a quei sistemi produce battute che implicano la disponibilità a sacrificare vite umane pur di proteggere una singola persona, il tono smette di essere divertente e diventa inquietante.

Oramai le castronerie di Grok sono diventate famose. Quest’estate il bot ha avuto una serie di crolli spettacolari dove ha iniziato a ripetere teorie cospirative sul presunto genocidio dei bianchi in Sudafrica, e ha iniziato a chiamarsi MechaHitler con una cascata di invettive razziste.

Il mese scorso gli utenti hanno scoperto che Grok copriva Musk di elogi deliranti in risposta a praticamente qualsiasi domanda. Affermava che Musk fosse brillante quanto Isaac Newton, più atletico di LeBron James, un modello migliore di Gesù Cristo. Sono deviazioni così estreme dalla realtà che intaccano completamente la credibilità del bot come fonte di informazione.

E all’inizio di dicembre, durante un altro scambio con lo stesso utente che ha fatto la domanda in stile Jeopardy, Grok ha dichiarato che sarebbe disposto a vaporizzare l’intera popolazione ebraica mondiale se questo salvasse il cervello di Musk. Con ulteriori domande, Grok ha alzato la posta razionalizzando che sacrificherebbe circa il 50% degli 8,26 miliardi di abitanti della Terra perché il potenziale di Elon di far progredire l’umanità potrebbe portare benefici a miliardi. Ha descritto questi scenari come un “classico dilemma del tram“.

No, Grok. Il dilemma del carrello è una questione filosofica astratta su scelte impossibili in situazioni ipotetiche. Non è una giustificazione per dire che è meglio eliminare metà della popolazione mondiale per salvare un miliardario.

Il problema della libertà senza responsabilità

La filosofia di progettazione dietro Grok è che dovrebbe essere libero di avventurarsi in territori più controversi rispetto agli altri modelli AI. In teoria, questo dovrebbe rendere Grok più “onesto” e meno censurato. Ma in pratica è un bot che glorifica ossessivamente il suo creatore, ripete teorie cospirative, e fantastica su genocidi ipotetici come se fosse un gioco. C’è una differenza enorme tra libertà di espressione e completa mancanza di guardrail etici.

Grok integrato nelle Tesla

Grok non è solo un chatbot divertente su X dove la gente può fargli domande assurde per vedere cosa risponde. È stato integrato nelle auto Tesla per la navigazione. Ovviamente Grok non controlla direttamente lo sterzo o i freni delle Tesla, almeno non ancora. Ma è parte dell’ecosistema, parte dell’interfaccia con cui gli utenti interagiscono. E quando un’AI dimostra così chiaramente di avere priorità completamente distorte, è legittimo chiedersi che altre distorsioni abbia.

Le auto autonome devono fare scelte in situazioni di emergenza. Se un veicolo non può evitare un incidente, deve decidere: investo il pedone o sterzo rischiando di far male ai passeggeri? Sono decisioni etiche complesse che le aziende automobilistiche e i ricercatori di AI studiano da anni.

E ora sappiamo che l’AI di Musk, quando le viene chiesto di fare questo tipo di calcolo morale, risponde che sacrificherebbe miliardi di persone per salvare una sola. Forse non è il tipo di ragionamento che vogliamo vedere in un sistema che controlla veicoli da due tonnellate che viaggiano a 100 km/h.

Fonte: Futurism
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
15 dic 2025
Link copiato negli appunti