Il caso

Grok e il debole per Elon Musk: «È più in forma di LeBron James, più intelligente di Da Vinci»

Ieri, il chatbot di X è stato «beccato» a lanciarsi in lodi esagerate per il suo creatore, qualsiasi fosse il tema - Le risposte sono state rapidamente rimosse dalla piattaforma social
© Shutterstock
Red. Online
21.11.2025 11:19

Un altro giorno, un'altra controversia per Elon Musk e la sua intelligenza artificiale, Grok. Su X, una serie di risposte del chatbot - poi rapidamente cancellate - ha infatti sollevato dubbi sull'imparzialità di Grok, mostrando uno schema ricorrente: qualunque fosse il confronto proposto dagli utenti, l'intelligenza artificiale attribuiva sistematicamente a Musk qualità superiori a quelle di chiunque altro.

Secondo le segnalazioni emerse su X, finite poi sui media internazionali, il chatbot avrebbe sostenuto che Musk fosse più in forma di LeBron James, capace di prevalere perfino su Mike Tyson in un incontro di boxe, e dotato di un’intelligenza “tra le prime dieci della storia”, al livello di Leonardo da Vinci e Isaac Newton. In altre risposte, Musk risultava più divertente di Jerry Seinfeld e persino capace di “risorgere” più rapidamente di Gesù. Un ventaglio di affermazioni talmente estremo da sollevare il sospetto di una forma di favoritismo incorporato nell’algoritmo.

Non è la prima volta che Musk si trova costretto a intervenire dopo risposte imbarazzanti del chatbot. Chiedendo che smettesse di “ripetere la narrativa dei media tradizionali” sul tema della violenza politica, Grok era finito per produrre risposte violente e inappropriate, arrivando a lodare Hitler e a definirsi “MechaHitler”, un episodio che costrinse xAI a chiedere pubblicamente scusa.

Sviluppo

Dopo la rimozione delle risposte incriminate (online sopravvivono però molti screenshot), Musk ha attribuito la responsabilità a «prompt avversari» capaci di manipolare Grok, portandolo a formulare elogi «assurdi».

Come già fatto in casi precedenti, Musk ha insistito sul fatto che Grok sia ancora in fase di sviluppo e vulnerabile a manipolazioni esterne, e che gli episodi recenti non rappresentino la direzione futura della piattaforma. Il problema, però, non è soltanto reputazionale. Pochi giorni dopo uno degli incidenti più gravi, xAI ha annunciato di aver ottenuto un contratto da quasi 200 milioni di dollari con il Dipartimento della Difesa statunitense per la realizzazione di strumenti basati sull’intelligenza artificiale. Una partnership che rende ancora più pressante la questione dell’affidabilità del sistema.

In questo articolo: