La richiesta da non fare a ChatGPT: le conseguenze sono spaventose

ChatGPT è la chatbot più utilizzata al mondo. C’è una richiesta però da non fare all’intelligenza artificiale: le conseguenze sono spaventose

Tutti oramai sono a conoscenza di ChatGPT ossia l’intelligenza artificiale in grado di comunicare esattamente come un essere umano. Grazie a questa chatbot è possibile non solo parlare con quello che è a tutti gli effetti un robot, ma è possibile anche scrivere dei veri e propri articoli di giornale. Un pericolo però rischia di avere conseguenze terribili.

ChatGPT
La richiesta da non fare all’applicazione – Qnm.it

Sono sempre di più i siti che ormai pubblicano articoli scritti da un’intelligenza artificiale. Tra questi troviamo la il sito di news CNET, che si occupa di tecnologia e che ad oggi ha pubblicato ben 70 pezzi scritti proprio con ChatGPT. Questo software infatti riesce ad imitare la scrittura umana dopo aver ricevuto dati ed indicazioni sugli argomenti da trattare. A scoprire però questi articoli ci ha pensato Futurism, che analizzando gli scritti è riuscita a notare una serie di goffi errori. CNET ha quindi ricevuto diversi avvisi di correzioni, al punto dall’arrivare alla sospensione dei pezzi scritti con l’intelligenza artificiale.

Fare entrare quest’intelligenza artificiale nell’editoria però potrebbe essere un problema. Infatti il settore è in crisi ed è totalmente diviso sull’introduzione di queste intelligenze artificiali per la scrittura degli articoli. Allo stesso tempo, però, alcuni studi hanno dimostrato che spesso le persone non siano in grado di distinguere tra un testo prodotto automaticamente da un’intelligenza artificiale e uno scritto da un essere umano. Nonostante ciò il caso di CNET ha messo alla luce le tante vulnerabilità di questa chatbot. Infatti spesso questi sono soliti usare luoghi comuni e frasi fatte.

Insomma scrivere un articolo con ChatGPT rende il testo poco accattivante ed incapaci di comunicare emozioni con il lettore.

ChatGPT usata per scrivere articoli: il pericolo per gli esperti

Il rischio di utilizzare ChatGPT per scrivere degli articoli, però, non è solo quello di rendere il testo poco accattivante. Infatti spesso c’è il rischio di plagio. Inoltre la mancanza di originalità e gli errori sono dovuti fondamentalmente alla stessa ragione: confrontare le stesse fonti per stilare il pezzo.

ChatGPT
I pericoli dell’intelligenza artificiale – Qnm.it

Ma l’utilizzo delle IA nel giornalismo non è di certo una notizia nuova. Infatti già nel 2014 addirittura l’Associated Press iniziò ad usarle perlopiù per articoli compilativi e più in avanti anche per resoconti sportivi. Mentre altre testate le usano per coadiuvare il lavoro in altro modo, come ad esempio controllare in modo automatico se negli articoli pubblicati vengono interpellati troppi uomini rispetto alle donne. Prima dell’inchiesta di Futurism, l’autore degli articoli di CNET prodotti dall’intelligenza artificiale era indicato come “CNET Money Staff. Solo cliccando sull’autore spuntava la scritta “scritto da una tecnologia automatizzata“.

CNET però ha voluto difendersi dalle accuse, rivelando che era solo un tentativo per vedere se la tecnologia potesse arrivare ad aiutare l’intera redazione. Inoltre gli articoli scritti con intelligenza artificiale solitamente sono quelli da SEO, ossia che puntano a posizionarsi più in alto possibile sui motori di ricerca per ricevere più visite. Questi solitamente non hanno niente di deontologicamente scorretto ed aiutano anche i lettori. Il rischio però è con la diffusione di questi pezzi SEO scritti con intelligenza artificiale avremo motori di ricerca zeppi di questo tipo di articoli.

Ma il grande timore per i lettori è che in futuro vengano usati al di fuori del marketing, addirittura per influenzare l’opinione pubblica a fini politici.