Fai attenzione a ChatGPT. Gli esperti chiariscono una volta per tutte: l’Intelligenza Artificiale non è infallibile.
Non c’è nulla di miracoloso in ChatGPT. Essendo fallibile l’uomo, lo è anche un prodotto dell’uomo. Rivolgersi all’Intelligenza Artificiale per qualsiasi cosa può essere rischioso.

Lo provano diverse notizie di cronaca e l’appello dei professori universitari. Sono sempre di più gli studenti che ne usufruiscono per la produzione di tesi ed elaborati scritti.
ChatGPT non è infallibile, è sempre bene ricordarlo
Tutti si affidano a ChatGPT. Sbagliando. O meglio: errando nel metodo di approccio. Non essendo abituati a rivolgersi a una macchina, molti dimenticano che quest’ultima va utilizzata come strumento e non come sostituto umano. Esempio pratico: diversi studenti sono stati colti in fragrante dai professori universitari. Molti di loro avevano sfruttato l’Intelligenza Artificiale per buttare giù la bozza della tesi, ponendo però domande troppo generiche e mal espresse.

Ipotizziamo di dover scrivere un testo sulla crisi climatica. Un prompt banale potrebbe essere: “Quali sono le cause della crisi climatica?”. A questo punto ChatGPT si mette al lavoro e risponde con una quantità più o meno approfondita di informazioni. Questo trucchetto nasconde però una fregatura, poiché l’algoritmo non è in grado di fare una cernita di quello che trova online, a meno che non siamo noi a indirizzarlo verso le fonti adeguate. È importante, quindi, essere specifici.
Alcuni poi, cercando di fare i furbi, hanno chiesto all’IA di scrivere un elaborato “umano”. Così da non sembrare troppo macchinoso. ChatGPT ha quindi inserito refusi, talvolta persino errori grammaticali piuttosto gravi e pensieri mal espressi. I professori conoscono bene questo strumento e quindi hanno imparato a individuare un prodotto originale e uno frutto di un’elaborazione informatica di pochi secondi. Ci sono poi casi più gravi.
La notizia è del 13 agosto. Un sessant’enne ha chiesto a ChatGPT come sostituire il sale nella dieta. L’IA ha consigliato il bromuro di sodio. L’uomo ha acquistato il composto chimico online e ha cominciato ad assumerlo regolarmente. Tre settimane dopo si è recato in ospedale. Gli è stata diagnosticata una severa forma di bromismo, che si manifesta con irritazione bronchiale e rinofaringea, dolorosi disturbi gastrici, eruzioni cutanee e nausea. Era convinto di essere stato avvelenato.
Considerare ChatGPT come sostituta dell’essere umano è un grave errore. Le ricerche scolastiche e professionali, la rassegna stampa, eventuali consigli medici, psicologici e simili. Sono tutte procedure che richiedono un occhio di riguardo e un’attenzione non macchinosa. In sostanza: fidarsi è bene, non fidarsi è meglio.





