L’infodemia e l’intelligenza artificiale sono oggi tra le sfide più delicate per la salute pubblica, tra rischi di manipolazione e nuove possibilità di analisi e prevenzione. È in questa cornice che, presso l’Istituto Superiore di Sanità – Aula Pocchiari, si è svolto, venerdì 13 marzo, il convegno “Infodemia e Intelligenza Artificiale – Il duplice volto dell’innovazione tra minacce e opportunità per la salute pubblica”, un confronto tra ricerca, istituzioni e informazione su un nodo decisivo: come orientarsi in un ecosistema in cui la velocità dei contenuti può ampliare il sapere scientifico ma anche confondere e disinformare.
L’iniziativa si inserisce in una fase in cui l’ISS sta rafforzando il proprio investimento sull’AI, anche attraverso il Centro nazionale per l’Intelligenza Artificiale e le Tecnologie Innovative per la Salute (IATIS), nuova struttura istituita presso l’Istituto Superiore di Sanità nell’ottobre 2025.
Il tema non è astratto. In ambito sanitario, la disinformazione può incidere sui comportamenti individuali e collettivi, influenzare l’adesione alle vaccinazioni, orientare scelte terapeutiche inappropriate e produrre effetti concreti sulla salute pubblica. Per questo, come emerso nel corso dell’incontro, contrastare l’infodemia non è più soltanto un compito comunicativo: è una responsabilità scientifica e istituzionale. In questo scenario, l’intelligenza artificiale mostra il suo duplice volto. Da una parte, algoritmi e piattaforme possono amplificare contenuti fuorvianti; dall’altra, possono diventare strumenti preziosi per monitorare i fenomeni informativi e intervenire prima.
Gli interventi introduttivi dell’ISS, a cura del presidente Rocco Bellantone e del direttore generale Andrea Piccioli, hanno richiamato l’attenzione su una trasformazione profonda: non siamo più di fronte solo a bufale grossolane, ma a contenuti sempre più verosimili, plausibili, difficili da distinguere dal vero. La sfida, allora, non è stabilire se l’AI sia buona o cattiva, ma capire come governarla e come metterla al servizio del bene pubblico. Non basta chiedersi che cosa queste tecnologie siano in grado di fare: bisogna capire come usarle in modo sicuro, trasparente ed eticamente responsabile, rafforzando la fiducia dei cittadini nella scienza.
Nel suo intervento introduttivo, Bellantone ha definito infodemia e AI come uno dei nodi più delicati della società dell’informazione: da un lato, la velocità della circolazione delle notizie amplia la diffusione del sapere scientifico; dall’altro, la sovrabbondanza informativa rende più difficile per i cittadini distinguere le fonti affidabili e prendere decisioni corrette in ambito sanitario. “In questo quadro – ha sottolineato Bellantone – la disinformazione non è un semplice rumore di fondo: può incidere sulle vaccinazioni, orientare scelte terapeutiche inappropriate e produrre conseguenze concrete sulla salute pubblica”. Da qui l’idea che la sfida non sia solo tecnologica, ma anche culturale, scientifica ed etica.
Su una linea affine si è mosso anche Piccioli, che ha insistito su un passaggio decisivo: “oggi non siamo più di fronte a errori grossolani o bufale facilmente smontabili, ma a contenuti sempre più credibili, verosimili, plausibili”. Ed è qui, ha aggiunto, che si apre il problema più insidioso: “la macchina non cerca la verità, cerca la coerenza”. Per questo, nel campo della salute, diventa essenziale distinguere tra la verosimiglianza prodotta dai sistemi generativi e la verità della cura. Il punto, in altre parole, non è decidere se l’AI sia buona o cattiva, ma capire come governarne la potenza.
A dare ulteriore concretezza a questo quadro è stato anche l’intervento di Fidelia Cascini, medico e docente presso l’Università Cattolica del Sacro Cuore, che ha spostato l’attenzione sul ruolo delle tecnologie e dei social media nei processi di esitazione vaccinale. Se internet e le piattaforme digitali sono ormai veicoli centrali di informazione, ha osservato, lo sono sia nel bene sia nel male: accanto alla diffusione del sapere possono diventare potenti strumenti di disinformazione. Proprio per questo comprendere il rapporto tra tecnologie, social media e salute pubblica è fondamentale per capire se, e in che misura, esista un’associazione tra esposizione ai contenuti online ed esitazione vaccinale.
Richiamando una rassegna della letteratura pubblicata su eClinicalMedicine di The Lancet, Cascini ha spiegato che l’uso dei social media come principale fonte di informazione risulta strettamente correlato a un aumento dell’esitazione vaccinale. In particolare, la popolazione più esposta è quella dei giovani, più vulnerabile alla polarizzazione, alle dinamiche delle echo chambers e alla circolazione di contenuti che rafforzano dubbi, sfiducia, polemiche e teorie complottiste. Ma lo stesso ecosistema digitale, ha sottolineato, può anche essere usato in senso opposto: quando la tecnologia serve a veicolare campagne mirate, messaggi chiari e linguaggi adatti ai diversi pubblici, può contribuire a ridurre l’esitazione vaccinale e a rafforzare la fiducia.
Da qui il richiamo al ruolo delle istituzioni pubbliche, dei ricercatori, dei giornalisti e dei leader competenti nel promuovere una comunicazione più trasparente, segmentata e vicina ai bisogni reali delle persone.
In questo contesto si è inserito l’intervento del Dott. Domenico Cangemi, matematico e ricercatore del centro di ricerca Luiss Data Lab, che nell’ambito di un progetto a cura dell’Università Cattolica, in collaborazione con Luiss Data Lab, IDMO e l’Università Lumsa, ha portato il dibattito su un terreno ancora più concreto: misurare l’impatto della disinformazione online sull’andamento delle prenotazioni vaccinali durante la campagna Covid-19.
Il suo intervento, “Disinformazione e prenotazioni vaccinali: analisi di cointegrazione”, ha affrontato una domanda cruciale: la disinformazione circolata sui social durante la campagna vaccinale Covid-19 ha influenzato il comportamento della popolazione? Per rispondere, il gruppo di ricerca ha analizzato il periodo compreso tra metà aprile 2021 e luglio 2023, utilizzando i dati sulle prenotazioni vaccinali forniti dal Ministero della Salute e oltre 300 mila tweet raccolti su X. Il dataset sulle narrative false proveniva da IDMO (Italian Digital Media Observatory) ed era costruito a partire dal lavoro manuale di giornalisti, analisti e fact-checker: non solo false informazioni mediche, ma anche letture politiche e persino contenuti quasi fantascientifici legati alla pandemia.
Secondo quanto emerso dalla ricerca, disinformazione online e andamento della campagna vaccinale non si muovono in compartimenti stagni. Esiste un rapporto, una tensione misurabile tra ciò che accade nello spazio digitale e ciò che accade nei comportamenti collettivi: in termini tecnici, un rapporto di cointegrazione. E il dato forse più interessante, sottolineato da Cangemi, è che anche la serie delle vaccinazioni reagiva a questo tipo di shock informativo. Ciò avveniva non in modo meccanico o lineare, ma abbastanza da suggerire una conclusione netta: monitorare l’infodemia può aiutare a segnalare in anticipo tensioni nella campagna vaccinale.
Ne deriva che, se l’AI può amplificare distorsioni, polarizzazione e contenuti ingannevoli, può anche diventare uno strumento di lettura, prevenzione e supporto alle decisioni. La posta in gioco, allora, non è solo smascherare il falso: è costruire un ecosistema informativo affidabile, capace di rafforzare la fiducia dei cittadini nella scienza e nelle istituzioni.


