Attenzione a ChatGPT: non sempre azzecca le risposte, ecco perché

Fai attenzione a ChatGPT. Gli esperti chiariscono una volta per tutte: l’Intelligenza Artificiale non è infallibile.

Non c’è nulla di miracoloso in ChatGPT. Essendo fallibile l’uomo, lo è anche un prodotto dell’uomo. Rivolgersi all’Intelligenza Artificiale per qualsiasi cosa può essere rischioso.

Mano umana stringe la mano di un robot
Attenzione a ChatGPT: non sempre azzecca le risposte, ecco perché – viagginews.com

Lo provano diverse notizie di cronaca e l’appello dei professori universitari. Sono sempre di più gli studenti che ne usufruiscono per la produzione di tesi ed elaborati scritti.

ChatGPT non è infallibile, è sempre bene ricordarlo

Tutti si affidano a ChatGPT. Sbagliando. O meglio: errando nel metodo di approccio. Non essendo abituati a rivolgersi a una macchina, molti dimenticano che quest’ultima va utilizzata come strumento e non come sostituto umano. Esempio pratico: diversi studenti sono stati colti in fragrante dai professori universitari. Molti di loro avevano sfruttato l’Intelligenza Artificiale per buttare giù la bozza della tesi, ponendo però domande troppo generiche e mal espresse.

Ragazza triste davanti al computer
ChatGPT non è infallibile, è sempre bene ricordarlo – viagginews.com

Ipotizziamo di dover scrivere un testo sulla crisi climatica. Un prompt banale potrebbe essere: “Quali sono le cause della crisi climatica?”. A questo punto ChatGPT si mette al lavoro e risponde con una quantità più o meno approfondita di informazioni. Questo trucchetto nasconde però una fregatura, poiché l’algoritmo non è in grado di fare una cernita di quello che trova online, a meno che non siamo noi a indirizzarlo verso le fonti adeguate. È importante, quindi, essere specifici.

Alcuni poi, cercando di fare i furbi, hanno chiesto all’IA di scrivere un elaborato “umano”. Così da non sembrare troppo macchinoso. ChatGPT ha quindi inserito refusi, talvolta persino errori grammaticali piuttosto gravi e pensieri mal espressi. I professori conoscono bene questo strumento e quindi hanno imparato a individuare un prodotto originale e uno frutto di un’elaborazione informatica di pochi secondi. Ci sono poi casi più gravi.

La notizia è del 13 agosto. Un sessant’enne ha chiesto a ChatGPT come sostituire il sale nella dieta. L’IA ha consigliato il bromuro di sodio. L’uomo ha acquistato il composto chimico online e ha cominciato ad assumerlo regolarmente. Tre settimane dopo si è recato in ospedale. Gli è stata diagnosticata una severa forma di bromismo, che si manifesta con irritazione bronchiale e rinofaringea, dolorosi disturbi gastrici, eruzioni cutanee e nausea. Era convinto di essere stato avvelenato.

Considerare ChatGPT come sostituta dell’essere umano è un grave errore. Le ricerche scolastiche e professionali, la rassegna stampa, eventuali consigli medici, psicologici e simili. Sono tutte procedure che richiedono un occhio di riguardo e un’attenzione non macchinosa. In sostanza: fidarsi è bene, non fidarsi è meglio.

Gestione cookie