Affidarsi alla tecnologia può essere un vantaggio, ma in alcuni casi anche un danno per la salute: ecco cosa è successo ad un 60enne che ha seguito i consigli di ChatGPT sulla dieta.
Partiamo con il presupposto che non si sta cercando di demonizzare la tecnologia e non si vuole nemmeno puntare il dito contro un’AI specifica, ma semplicemente fare riflettere sulle implicazioni riguardanti l’utilizzo inconsapevole della tecnologia. Gli strumenti tecnologici vanno prima di tutto conosciuti e padroneggiati, così da poterne conoscere punti di forza e punti deboli.

Per quanto riguarda i chatbot AI come ChatGPT, si tratta di elaborati strumenti di ricerca che offrono delle funzioni aggiuntive nella produzione di contenuti, che possono velocizzare l’apprendimento di una particolare conoscenza o pratica, ma che non possono in nessun caso essere ritenuti come strumenti onniscienti, in grado di guidare la nostra vita in ogni suo aspetto.
Addentrandoci nella tematica specifica di cui parleremo, il problema è concettuale, ovvero l’idea di base che basti raccogliere informazioni su internet per sostituirsi a chi determinate nozioni le ha apprese in anni di studio e di esperienza sul campo. Tale falsa convinzione esiste già da tempo ed è una conseguenza indiretta della diffusione di internet.
Ma se le informazioni sul web portavano alcuni soggetti a ritenere di saperne più dei medici e di contestare diagnosi e terapie, l’approdo dei chatbot AI potrebbe spingere gli stessi a cercare una terapia fai-da-te consigliata dall’Intelligenza Artificiale, un qualcosa che, come vedremo poco più avanti, potrebbe causare problemi di salute.
Meglio non pianificare la dieta con ChatGPT: il caso del 60enne finito in ospedale
Il problema di una simile scelta è che ne la persona che cerca una terapia, né tantomeno il chatbot, possiedono una capacità critica tale da permettere di comprendere quali siano gli effetti di una terapia e quali le controindicazioni. Il caso emblematico di ciò viene offerto da un articolo scientifico pubblicato sulla rivista specialistica Annals of Internal Medicine da alcuni ricercatori dell’Università di Washington.

In questo viene riportato il caso di un sessantenne che preoccupato dagli effetti nocivi dell’utilizzo del sale sul suo corpo, ha chiesto a ChatGPT come potesse sostituirlo. La risposta dell’AI è stata Bromuro di Sodio, una sostanza che fino all’inizio del ‘900 veniva utilizzata come sedativo.
L’uomo ha utilizzato la sostanza al posto del sale per tre mesi, finché non ha cominciato ad avvertire malessere diffuso ed è stato costretto al ricovero in ospedale. Quando l’uomo è arrivato in cura era in uno stato di forte paranoia, convinto che il vicino lo avesse avvelenato e che anche i medici che lo avevano preso in cura volessero avvelenarlo.
A causa dell’utilizzo del bromuro, l’uomo aveva sviluppato bromismo (intossicazione da sostanze a base di bromuro di sodio) che si era manifestata con un’elevata arsura, insonnia e sviluppo di acne sul viso. L’articolo ed il caso citato servono ai ricercatori per sottolineare come un utilizzo disinformato della tecnologia possa portare a conseguenze per la salute anche gravi:
“ChatGPT e altre applicazioni che sfruttano l’intelligenza artificiale possono generare delle imprecisioni scientifiche perché non sono in grado di analizzare criticamente i dati a disposizione, alimentando la disinformazione”.





