Intelligenza artificiale e fake news: quando si crea disinformazione?

da | Giu 8, 2024 | Papers!

Negli ultimi decenni il panorama dell’informazione è radicalmente mutato. Cardine del cambiamento è stato senza dubbio l’introduzione dell’intelligenza artificiale (IA).

Nel digital marketing, ad esempio, la sua implementazione ha permesso di migliorare la produttività aziendale, le analisi di mercato, le strategie di vendita e l’esperienza d’acquisto del cliente, tutto grazie all’elaborazione di grandi quantità di dati in modo rapido e preciso.

Interfacce come ChatGPT, Midjourney o Gen-2, specializzate nella produzione di testi, immagini e video attraverso l’IA, hanno fornito un contributo essenziale nella realizzazione di contenuti per il grande pubblico. I loro modelli generativi possono essere infatti addestrati a creare complessi e specifici tipi di output in un semplice click, lasciando libero spazio alla creatività. Tempo e risorse vengono così risparmiate e il lavoro ottimizzato.

Ma non è tutto rose e fiori.

Se da una parte l’intelligenza artificiale si è rivelata essenziale e provvidenziale nel supportare il progresso della comunicazione e nell’affiancare i professionisti del settore, dall’altra può essere anche un pericoloso strumento di disinformazione. Queste nuove tecnologie si nutrono di informazioni presenti online – attendibili o meno – e possono inoltre essere istruite con dati falsi o errati, ponendo in questo modo saldi presupposti per la nascita di nuove fake news.

Qual è la portata di questa crisi d’informazione?

Durante l’epidemia di Covid-19 sono trapelate molte notizie, spesso false: la correlazione tra l’infezione e il 5G, il vaccino che genera sterilità, l’installazione di microchip sottocutanei, ecc… Questa campagna di disinformazione ha avuto effetti a dir poco destabilizzanti, non solo sulla fiducia nel sistema sanitario, ma anche sulla gestione della crisi a livello governativo. Il risultato finale? Razzie nei supermercati, nascita di fazioni no-vax, panico generale e tanta frustrazione.

Ma ci sono anche esempi politici.

Una giovane americana del Partito Democratico, Erica Marsh, attiva sia nella campagna elettorale del presidente Biden sia per la Fondazione Obama, è stata smascherata dal Washington Post come fake. I suoi tweet iperliberali, scritti da IA con informazioni false e manipolate, sono risultati così credibili da riuscire a raccogliere un ampio consenso (130 mila follower), contribuendo a diffondere un’idea di sinistra ridicolizzata per il suo estremismo. Facendo leva sul rage-baiting, ovvero pubblicando contenuti controversi per generare indignazione, questo enorme deepfake è stato in grado di influenzare e fomentare grandi masse in un movimento comune di rivolta.

Questa è la portata delle fake news.

Che impatto hanno nel marketing?

Il caso Pepsi ci fornisce una risposta. Nel 2016, appena dopo l’elezione di Trump, è circolata una fake news in cui il CEO di PepsiCo, Indra Nooyi, avrebbe detto ai fan di Trump di “portare i loro affari altrove”. Questa notizia, diffusa poi da siti fake, portò a un vasto malcontento dei consumatori nei confronti del brand e a un crollo delle azioni del 5%.

Considerando questo, possiamo dire che le fake news sono in grado di:

  1. Danneggiare la reputazione di un brand: anche se la notizia viene smentita successivamente, la percezione negativa può rimanere nella mente di chi acquista, generando una sorta di imprinting;
  2. Influenzare le decisioni d’acquisto: se l’utente credo alle fake news riguardanti un prodotto, potrebbe evitare di acquistarlo o scegliere quello di un’altra azienda;
  3. Creare maggior diffidenza verso il brand: lo scetticismo generato da queste menzogne può estendersi anche alle campagne di marketing, rendendo più difficile per le aziende guadagnare fiducia;
  4. Portare a un aumento dei costi: potrebbe essere necessario investire risorse per combattere le fake news. Questo include PR d’emergenza, campagne d’informazione e, in alcuni casi, azioni legali;
  5. Minare la fiducia del pubblico nei confronti dei media tradizionali: se inizia a dubitare dell’accuratezza delle informazioni che riceve, potrebbe diventare più resistente alle campagne di marketing veicolate attraverso questi canali.

    Qual è il ruolo dell’IA nella creazione di fake news?

    Si tratta di un’arma a doppio taglio. Nelle giuste mani, diventa uno strumento utile e versatile. In quelle sbagliate, un mezzo di manipolazione dei contenuti.

    Facciamo un esempio: ChatGPT elabora indistintamente informazioni tratte dal web, siano esse vere o false, senza alcun sistema di regolamentazione. Secondo l’analisi di NewsGuard, GPT-4 ha infatti ottenuto lo 0% in un’esercitazione ideata per valutare la sua capacità di evitare di diffondere disinformazione su argomenti rilevanti. Questo modello generativo è in grado di produrre output erronei o totalmente inventati ed essere istruito, allo stesso tempo, con altrettante informazioni sbagliate prese per vere dalla macchina. Non vi è quindi alcun filtro nella raccolta e successiva diffusione di informazioni. I testi generati da ChatGPT possono in questo modo diventare lesivi non solo per i singoli, ma anche per aziende, associazioni o addirittura governi, diventando strumenti per la creazione di dissenso o propaganda. L’intervento umano per la verifica dell’output è ancora necessario.

    Agli strumenti testuali si aggiungono poi quelli che utilizzano queste tecnologie per creare immagini e video realistici generati dall’intelligenza artificiale, ad esempio il deepfake. Grazie a un vasto database di dati oggi è infatti possibile ricreare eventi mai accaduti o discorsi mai pronunciati. Spesso, tra i bersagli più gettonati vi sono celebrità o politici immortalati in azioni compromettenti.

    Basta quindi un po’ di creatività e un semplice click per genere contenuti in grado di influenzare l’opinione pubblica, con risvolti poco piacevoli.

    Ma non è tutta colpa dell’IA

    Condannare l’intelligenza artificiale come strumento esclusivo al servizio delle fake news sarebbe errato e riduttivo. In un mondo in cui le informazioni sono destinate ad aumentare, la soluzione più logica è supportare il progresso tecnologico verso il controllo qualitativo dei dati a disposizione dell’IA. Devono inoltre essere create nuove norme che arginino la disinformazione di questi sistemi generativi di IA in modo da tutelare l’utente.

    In questa direzione si sta muovendo la Commissione Europea che, ai sensi del Digital Services Act, ha portato le più grandi aziende tecnologiche a iscriversi al codice contro la disinformazione dell’UE, concretizzando l’azione in un intervento tempestivo nella lotta contro le fake news.

    Inoltre, in questa nuova sfida, l’IA può anche diventare lo strumento di risoluzione del problema. Google e Facebook stanno già ricorrendo ad algoritmi che utilizzano, ad esempio, il fact checking – cioè all’analisi di elementi come il profilo, i like o il linguaggio impiegato – per individuare ed eliminare eventuali bot o identità fake.

    Prevenire è meglio che curare

    Cosa può fare un’azienda per tutelarsi? La best practice da attuare in questi casi è: ascoltare la rete. Per evitare che notizie fasulle trapelino da Internet è consigliabile utilizzare dei brand monitoring tool come Talkwalker, per tracciare le conversazioni sui social, siti web, blog e forum. L’utilizzo di questi strumenti permette infatti di comprendere la percezione del pubblico riguardo un particolare argomento e il suo relativo engagement.

    Nel caso di opinioni negative, dubbi o perplessità è inoltre importante rispondere con tempestività e garbo, evitando di ignorare il problema, che al contrario acuisce il malcontento. A tale scopo sono nati nel tempo i community manager, figure specializzate nella gestione delle richieste del pubblico, indispensabili nella gestione di eventuali crisi.

    Una parte della propria strategia di mercato deve inoltre considerare l’im- plementazione di strumenti legali tutelativi contro le fake news. Si tratta di rettifiche, valutazioni del danno d’immagine oppure riconoscimenti del diritto alla reputazione e all’immagine digitale dell’impresa. Meglio quindi elaborare in anticipo un piano di crisis management oppure di affidarsi a figure professionali specializzate.

    E per il singolo? Riconoscere le fake news è diventato arduo e complesso, specialmente dopo l’arrivo dell’IA. L’importante è controllare le proprie fonti, verificare fatti e date, eventuali errori ortografici, di grammatica, immagini o video distorti e URL.

    Ti incuriosisce quello che facciamo?

    Con la Newsletter Ufficiale di Nida’s saprai sempre cosa bolle in pentola!

    Gli ultimi articoli

    Il potere della cancelleria personalizzata nel B2B

    Il potere della cancelleria personalizzata nel B2B

    Ogni storyteller può confermarlo: carta e penna sono tutto ciò che ti serve per iniziare a scrivere una storia. Anche quella del tuo business!
    Ovvio, poi è il contenuto quello che conta… ma quando lo scrivi utilizzando strumenti personalizzati l’impatto è ancora maggiore.

    Mancano solo 6 mesi a Natale!

    Mancano solo 6 mesi a Natale!

    Natale è alle porte! Può sembrare incredibile, ma mancano solo sei mesi a questa magica festa. Sì, hai capito bene… SOLO 6 mesi! Se credi sia troppo presto per iniziare a prepararti, ripensaci.