{"id":186338,"date":"2023-09-29T10:04:00","date_gmt":"2023-09-29T08:04:00","guid":{"rendered":"https:\/\/www.idmo.it\/2023\/09\/29\/gli-strumenti-di-sintesi-vocale-basati-sullintelligenza-artificiale-vengono-utilizzati-per-creare-video-cospirazionisti-su-tiktok\/"},"modified":"2023-11-14T13:40:23","modified_gmt":"2023-11-14T12:40:23","slug":"gli-strumenti-di-sintesi-vocale-basati-sullintelligenza-artificiale-vengono-utilizzati-per-creare-video-cospirazionisti-su-tiktok","status":"publish","type":"post","link":"https:\/\/www.idmo.it\/en\/2023\/09\/29\/gli-strumenti-di-sintesi-vocale-basati-sullintelligenza-artificiale-vengono-utilizzati-per-creare-video-cospirazionisti-su-tiktok\/","title":{"rendered":"Gli strumenti di sintesi vocale basati sull\u2019intelligenza artificiale vengono utilizzati per creare video cospirazionisti su TikTok"},"content":{"rendered":"\n<p>Secondo un\u2019analisi di <a href=\"https:\/\/www.newsguardtech.com\/it\/special-reports\/tecnologie-ia-di-sintesi-vocale-creano-video-cospirazionisti-su-tiktok\/\" target=\"_blank\" aria-label=\"undefined (apri in una nuova scheda)\" rel=\"noreferrer noopener\">NewsGuard<\/a>, una rete di 17 account <a href=\"https:\/\/www.idmo.it\/2023\/07\/25\/tiktok-misinformazione\/\" target=\"_blank\" aria-label=\"undefined (apri in una nuova scheda)\" rel=\"noreferrer noopener\">TikTok<\/a> sembrerebbe aver sfruttato una tecnologia di sintesi vocale iperrealistica per ottenere centinaia di milioni di visualizzazioni con contenuti che promuovono teorie del complotto, raccontate da voci che sembrano umane. Gli account utilizzano probabilmente un software di intelligenza artificiale text-to-speech per generare istantaneamente la voce del narratore e le altre voci presenti nei video. Si tratta di una nuova frontiera dell\u2019utilizzo dell\u2019intelligenza artificiale da parte di soggetti malintenzionati per produrre rapidamente e a basso costo contenuti falsi che raggiungano un vasto pubblico.<\/p>\n\n<p>Nel settembre 2023, NewsGuard ha scoperto che, da quando il primo di questi account ha iniziato a postare contenuti nel giugno 2023, la rete di account ha prodotto circa 5.000 video, molti dei quali caratterizzati da voci fuori campo apparentemente generate dall\u2019intelligenza artificiale. I video hanno ricevuto\u00a0<strong>336 milioni<\/strong>\u00a0di visualizzazioni e\u00a0<strong>14,5 milion<\/strong>i di \u201cmi piace\u201d al 25 settembre 2023.<\/p>\n\n<p>Tra le narrazioni prive di fondamento avanzate in questi video vi \u00e8 l\u2019affermazione secondo cui l\u2019ex presidente degli Stati Uniti\u00a0<a href=\"https:\/\/www.tiktok.com\/@ttc.news.2023\/video\/7268071328886869290\" target=\"_blank\" rel=\"noreferrer noopener\">Barack Obama sarebbe collegato alla morte del suo chef personale Tafari Campbell<\/a>; la conduttrice televisiva\u00a0<a href=\"https:\/\/www.tiktok.com\/@drophiltv2023\/video\/7242827023398325546?q=%23parati%20%23paratii%20%23paratiii%20%23paratitiktok%20%23fyp%20%23foryou&amp;t=1694029538851\" target=\"_blank\" rel=\"noreferrer noopener\">Oprah Winfrey sarebbe responsabile di \u201ctraffico sessuale\u201d<\/a>; l\u2019attore\u00a0<a href=\"https:\/\/www.tiktok.com\/@natrthehoofguyfan\/video\/7241234096926788910?q=%23parati%20%23paratii%20%23paratiii%20%23paratitiktok%20%23fyp%20%23foryou&amp;t=1694029538851\" target=\"_blank\" rel=\"noreferrer noopener\">Jamie Foxx sarebbe rimasto paralizzato e cieco a causa del vaccino contro il COVID-19<\/a>; e la comica\u00a0<a href=\"https:\/\/www.tiktok.com\/@truecrimetv2023\/video\/7273826693855448363?q=%23obama%20%23barackobama%20%23news&amp;t=1694028081256\" target=\"_blank\" rel=\"noreferrer noopener\">Joan Rivers sarebbe stata uccisa per aver affermato che Barack Obama era omosessuale<\/a>.<\/p>\n\n<p>Ad esempio, in\u00a0<a href=\"https:\/\/www.tiktok.com\/@e.news.tv\/video\/7269924619438624043?q=%23obama%20%23barackobama%20%23news&amp;amp;t=1694028081256\" target=\"_blank\" rel=\"noreferrer noopener\">un video del luglio 2023<\/a>\u00a0postato dall\u2019account @e.news.tv si sente un \u2018notiziario\u2019 di tre minuti raccontato da una voce narrante femminile, in cui si suggerisce che Obama sia in qualche modo collegato alla morte del suo chef personale (collegamento in realt\u00e0 infondato). Il video inizia con la voce narrante prodotta dall\u2019IA che afferma: \u201cObama ha reagito al fatto che [la moglie di Tafari Campbell] Sherise Campbell lo abbia incolpato della morte del marito Tafari Campbell. Ecco cosa ha detto al riguardo\u201d.\u00a0<\/p>\n\n<p>A questa introduzione, apparentemente letta da una voce narrante prodotta dall\u2019IA, segue l\u2019audio di un \u201cObama\u201d robotico, chiaramente generato dall\u2019intelligenza artificiale, che legge una dichiarazione sulla morte di Campbell. \u201cSebbene non riesca a comprendere la base delle accuse mosse contro di me, invito tutti a ricordare l\u2019importanza dell\u2019unit\u00e0, della comprensione e di evitare giudizi affrettati\u201d, afferma la voce artefatta di Obama. Al 27 settembre 2023, il video aveva ottenuto pi\u00f9 di<strong>\u00a050.700<\/strong>\u00a0visualizzazioni su TikTok.\u00a0<\/p>\n\n<p>In realt\u00e0, un\u2019<a href=\"https:\/\/www.politifact.com\/factchecks\/2023\/sep\/06\/facebook-posts\/tafari-campbells-widow-didnt-expose-the-obama-fami\/\" target=\"_blank\" rel=\"noreferrer noopener\">analisi di Politifact<\/a>\u00a0non ha trovato alcuna prova che la moglie di Campbell abbia mai incolpato Obama per la morte del marito, n\u00e9 esiste alcuna prova dell\u2019autenticit\u00e0 della dichiarazione letta dalla voce IA di Obama.<\/p>\n\n<div class=\"wp-block-image\"><figure class=\"aligncenter size-large\"><img fetchpriority=\"high\" decoding=\"async\" width=\"1024\" height=\"962\" src=\"https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/image4-3-2-1024x962.png\" alt=\"\" class=\"wp-image-183828\" srcset=\"https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/image4-3-2-1024x962.png 1024w, https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/image4-3-2-300x282.png 300w, https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/image4-3-2-768x721.png 768w, https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/image4-3-2-1536x1442.png 1536w, https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/image4-3-2-24x24.png 24w, https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/image4-3-2-36x34.png 36w, https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/image4-3-2-48x45.png 48w, https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/image4-3-2.png 1608w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><figcaption>Un video del luglio 2023, pubblicato su un account appartenente alla rete identificata da NewsGuard chiamato @e.news.tv, era accompagnato da una voce generata dall\u2019IA che NewsGuard \u00e8 riuscita a ricreare utilizzando la piattaforma di IA text-to-speech ElevenLabs. Oltre ad avere una voce narrante prodotta con l\u2019IA, il video era accompagnato anche dall&#8217;audio della voce di Barack Obama generata dall&#8217;IA che leggeva una dichiarazione inventata sulla morte di Tafari Campbell. (Screenshot di NewsGuard)<\/figcaption><\/figure><\/div>\n\n<p>NewsGuard\u00a0<a href=\"https:\/\/drive.google.com\/file\/d\/1cJnvJBy-OKpQOuOAmRhqapbZLe8PdWlH\/view?usp=sharing\" target=\"_blank\" rel=\"noreferrer noopener\">ha ricreato<\/a>\u00a0l\u2019introduzione audio del video utilizzando un software IA text-to-speech chiamato ElevenLabs, e ha identificato la voce che \u00e8 stata probabilmente utilizzata nella clip in quella indicata con il nome \u201cNatasha \u2013 Valley Girl\u201d sul sito di ElevenLabs.\u00a0<\/p>\n\n<p>In risposta a un\u2019email di NewsGuard del settembre 2023 in cui si chiedeva se questo video fosse stato effettivamente prodotto con il software di ElevenLabs, un portavoce dell\u2019azienda ha rimandato NewsGuard a un classificatore vocale IA che ElevenLabs offre sul suo sito. Quando un analista di NewsGuard ha inserito l\u2019audio del video precedentemente citato nel classificatore, lo strumento di ElevenLabs ha restituito un messaggio che affermava: \u201c98%. \u00c8 molto probabile che questo file audio sia stato generato con ElevenLabs\u201d.<\/p>\n\n<p><a href=\"https:\/\/www.tiktok.com\/@d.news.tv\/video\/7267722000624323883\" target=\"_blank\" rel=\"noreferrer noopener\">In un altro video<\/a>, pubblicato dall\u2019account @d.news.tv, una voce chiara prodotta dall\u2019IA legge un post del 15 agosto 2023 pubblicato su X (precedentemente noto come Twitter) in cui si afferma che gli incendi di Maui non sono stati \u201cincendi climatici, ma [sono stati causati da] armi a energia diretta\u201d e che Winfrey \u00e8 in qualche modo coinvolta nell\u2019innesco degli incendi. (Non ci sono prove a sostegno di queste\u00a0<a href=\"https:\/\/www.politifact.com\/factchecks\/2023\/aug\/28\/instagram-posts\/maui-county-blames-an-electric-utility-for-the-rec\/\" target=\"_blank\" rel=\"noreferrer noopener\">affermazioni<\/a>).<\/p>\n\n<div class=\"wp-block-image\"><figure class=\"aligncenter size-large\"><img decoding=\"async\" width=\"1024\" height=\"948\" src=\"https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/image5-2-1024x948.png\" alt=\"\" class=\"wp-image-183827\" srcset=\"https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/image5-2-1024x948.png 1024w, https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/image5-2-300x278.png 300w, https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/image5-2-768x711.png 768w, https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/image5-2-1536x1423.png 1536w, https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/image5-2-24x22.png 24w, https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/image5-2-36x33.png 36w, https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/image5-2-48x44.png 48w, https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/image5-2.png 1598w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><figcaption>In un video dell&#8217;agosto 2023, pubblicato da un account chiamato @d.news.tv, una voce narrante prodotta con l\u2019IA legge un tweet in cui si afferma che gli incendi dell&#8217;agosto 2023 a Maui sono stati causati da &#8220;armi a energia diretta&#8221;. (Screenshot di NewsGuard)<\/figcaption><\/figure><\/div>\n\n<p>All\u2019inizio del video, un errore nell\u2019audio svela che la voce narrante \u00e8 stata probabilmente generata dall\u2019intelligenza artificiale: facendo riferimento alla valutazione di 6,6 milioni di dollari di una propriet\u00e0 di 870 acri a Maui recentemente acquistata da Winfrey, la voce narrante diventa robotica quando spiega che il valore del terreno era di \u201cben 6,6 milioni di dollari\u201d. Se non fosse stato per questo inconveniente, gli utenti non avrebbero probabilmente avuto modo di sapere che il video era uno dei tanti, apparentemente generati in massa, accompagnati da una voce fuori campo generata dall\u2019IA. Al 27 settembre 2023, il video aveva ottenuto pi\u00f9 di 562.000 visualizzazioni.<\/p>\n\n<p>Inoltre, in quello che pare un tentativo di ingannare gli utenti facendo credere loro di trovarsi di fronte a una fonte credibile, NewsGuard ha scoperto che\u00a0<strong>13<\/strong>\u00a0dei 17 account che ha identificato come promotori di queste narrazioni erano contrassegnati in modo ingannevole per assomigliare a testate giornalistiche note e ad account TikTok popolari. Ad esempio, un account utilizza l\u2019handle @<a href=\"https:\/\/www.tiktok.com\/@drphilshowtv\" target=\"_blank\" rel=\"noreferrer noopener\">drphilshowtv<\/a>, richiamando il nome del popolare talk show americano \u201cDr. Phil\u201d. Un altro account, @<a href=\"https:\/\/www.tiktok.com\/@ynewstv2023\" target=\"_blank\" rel=\"noreferrer noopener\">ynewstv2023<\/a>, utilizza un nome e un logo che imitano quelli di Yahoo News. L\u2019account @<a href=\"http:\/\/e.news.tv\/\" target=\"_blank\" rel=\"noreferrer noopener\">e.news.tv<\/a>\u00a0utilizza nome e logo che ricordano quelli di E! News, popolare sito di notizie di intrattenimento.<\/p>\n\n<div class=\"wp-block-image\"><figure class=\"aligncenter size-large\"><img decoding=\"async\" width=\"1024\" height=\"212\" src=\"https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/Untitled-design-15-1024x212.png\" alt=\"Tik Tok intelligenza artificiale\" class=\"wp-image-183826\" srcset=\"https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/Untitled-design-15-1024x212.png 1024w, https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/Untitled-design-15-300x62.png 300w, https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/Untitled-design-15-768x159.png 768w, https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/Untitled-design-15-1536x318.png 1536w, https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/Untitled-design-15-2048x424.png 2048w, https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/Untitled-design-15-24x5.png 24w, https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/Untitled-design-15-36x7.png 36w, https:\/\/www.idmo.it\/wp-content\/uploads\/2023\/09\/Untitled-design-15-48x10.png 48w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><figcaption>Le pagine dei profili di tre degli account trovati da NewsGuard che sembrano aver utilizzato l&#8217;intelligenza artificiale per produrre video cospirazionisti. (Screenshot di NewsGuard)<\/figcaption><\/figure><\/div>\n\n<p>In base ai commenti che i video hanno ricevuto, i contenuti generati dall\u2019intelligenza artificiale stanno avendo un certo impatto. Ad esempio, nei commenti del video gi\u00e0 citato sullo chef di Obama, l\u2019utente Shay Lashay ha commentato \u201cObama lo ha fatto ammazzare\u201d. In un<a href=\"https:\/\/www.tiktok.com\/@7.minutes.ago\/video\/7265352974338149662\" target=\"_blank\" rel=\"noreferrer noopener\">\u00a0altro video\u00a0<\/a>con una voce apparentemente generata dall\u2019intelligenza artificiale che faceva la stessa affermazione, l\u2019utente @ricka189 ha scritto: \u201cTAFARI \u00c8 STATO PICCHIATO A MORTE, E POI MESSO NELLO STAGNO AD AFFOGARE, OBAMA LO HA UCCISO, E SI \u00c8 FATTO AIUTARE A FARLO\u201d.<\/p>\n\n<p>In realt\u00e0, secondo il Washington Post, il 22 agosto 2023 il medico legale del Massachusetts ha stabilito che la morte di Campbell \u00e8 stata accidentale.\u00a0<\/p>\n\n<p>Il 19 settembre 2023 TikTok\u00a0<a href=\"https:\/\/www.theverge.com\/2023\/9\/19\/23880630\/tiktok-ai-generated-content-label-effects-filters\" target=\"_blank\" rel=\"noreferrer noopener\">ha presentato una nuova funzione<\/a>\u00a0che consente agli utenti di inserire etichette di avvertenza sui contenuti prodotti con l\u2019aiuto dell\u2019intelligenza artificiale. Al 26 settembre, tuttavia, nessuno dei video cospirazionisti identificati da NewsGuard e citati in questo report riportava tale dicitura.<\/p>\n\n<p>NewsGuard ha inviato un\u2019email a TikTok il 26 settembre 2023, chiedendo se la rete di account identificata violasse le linee guida della piattaforma. Dopo aver ricevuto la richiesta, un portavoce di TikTok ha chiesto a NewsGuard di fornire informazioni sulla data di pubblicazione del report, cosa che NewsGuard ha fatto. Tuttavia, al 27 settembre 2023, TikTok non ha ancora risposto alle domande di NewsGuard.<\/p>\n\n<p>Hafiz Malik, professore di informatica presso l\u2019Universit\u00e0 del Michigan-Dearborn che si occupa di deepfake, ha dichiarato a NewsGuard in un\u2019intervista telefonica del settembre 2023 che l\u2019avvento della tecnologia IA text-to-speech ha favorito notevolmente la diffusione di audio falsi su piattaforme come TikTok. \u201cCon l\u2019evoluzione di strumenti come ElevenLabs o simili, penso che abbiano messo il tutto su una scala diversa in termini di velocit\u00e0 di generazione di deepfake\u201d, ha detto Malik. \u201cPrima c\u2019era un certo ritardo nella creazione: era necessario registrare e poi riprodurre l\u2019audio di qualcuno. Ma ora, in casi come questo, basta un clic del mouse\u201d.<\/p>\n\n<p><strong>A cura di\u00a0<a href=\"https:\/\/www.newsguardtech.com\/about\/team\/coalter-palmer\/\" target=\"_blank\" rel=\"noreferrer noopener\">Coalter Palmer<\/a>\u00a0<\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"<p>NewsGuard ha identificato una rete di 17 account TikTok che utilizzano un software IA text-to-speech per produrre video che avanzano affermazioni false e non comprovate, con centinaia di milioni di visualizzazioni<\/p>\n","protected":false},"author":132,"featured_media":186282,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[],"tags":[4908,4888,4909],"class_list":["post-186338","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","tag-artificial-intelligence","tag-disinformation-en","tag-tik-tok-en"],"acf":{"share_this_post_to_edmo_website":false,"type_of_post":false,"options_for_news_post":{"":""},"options_for_event_post":{"event_start_date":null,"event_end_date":null,"event_location":"","event_programme":""},"options_for_report_post":{"post_author":"","report_type":false,"report_pdf_link":""},"options_for_investigation_post":{"post_author":""},"affiliation":false},"_links":{"self":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts\/186338","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/users\/132"}],"replies":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/comments?post=186338"}],"version-history":[{"count":1,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts\/186338\/revisions"}],"predecessor-version":[{"id":186339,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts\/186338\/revisions\/186339"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/media\/186282"}],"wp:attachment":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/media?parent=186338"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/categories?post=186338"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/tags?post=186338"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}