Israele, perché l’associazione dei genitori ha chiesto di cancellare le app dei social

In Israele l'associazione dei genitori chiede di cancellare le app dei social dal telefono dei figli: ecco perché (c'entra la guerra).

All’inizio della guerra tra Israele e Hamas, a ottobre 2023, l’associazione “Israeli Parent Association” aveva chiesto ai genitori di disinstallare le app dei principali social network dai cellulari dei loro figli. I social, infatti, giocano un ruolo cardine nella narrazione del conflitto e tuttora l’argomento è molto dibattuto. Altrettanto delicata, inoltre, è la questione delle immagini generate dall’Intelligenza Artificiale. C’è anche chi chiede maggiore trasparenza sui logaritmi usati dai vari social nella scelta dei contenuti da mostrare, così come la possibilità di controlli esterni. Ecco allora perché in Israele l’associazione di genitori chiede di cancellare i social.

La lettera ai genitori all’inizio del conflitto Israele-Hamas: ecco perché cancellare i social

All’inizio del conflitto Israele-Hamas, la giornalista dell’emittente israeliana ILTV News ha diffuso una lettera arrivata ai genitori delle scuole di Tel Aviv firmata dall’Israeli Parents Association – l’Associazione dei Genitori di Israele. Nel testo si invitavano i genitori a tenere i figli lontani dai social per evitare che fossero esposti a video eccessivamente disturbanti o violenti diffusi da Hamas.

“Vi preghiamo di rimuovere le app di TikTok e Instagram dagli smartphone dei vostri figli”, si legge nel comunicato. E ancora: “Non possiamo permetterci che guardino questi contenuti. È difficile anche per noi digerire tutti i contenuti che vediamo sui social network”.

Insomma, si tratta di una parentesi in un dibattito molto più ampio e globale che riguarda il ruolo giocato dai social nei conflitti, aperto già dall’invasione della Russia in Ucraina, probabilmente la prima guerra narrata quotidianamente sui social.

Il paradosso generato dall’IA

Da un lato, la possibilità di accedere a informazioni dalla base della società civile, non filtrate quindi dall’informazione mainstream, permette una visione profonda del contesto. Tuttavia, dall’altro lato, espone a manipolazioni e fake news. Considerato che non siamo tutti esperti di geopolitica, riuscire a capire se una foto o un video sono manipolati risulta sempre più difficile, soprattutto dopo l’avvento dell’Intelligenza Artificiale.

L’IA, infatti, ha generato una sorta di paradosso: accanto alle persone che non hanno la dimestichezza nel verificare la veridicità di una fonte trovata sui social, ci sono anche quelle che non credono più a nulla, nel dubbio di trovarsi di fronte a una eventuale immagine generata o manipolata dall’intelligenza artificiale stessa.

La moderazione nei social è sufficiente?

Moderare i dibattiti che si scatenano sui social è abbastanza? È una questione di importanza vitale, considerato il ruolo che hanno i social nella vita quotidiana, soprattutto dei più giovani. Il rischio di trovarsi immersi in una “bolla” mediatica dove ogni giorno si è esposti a una narrazione unidirezionale, qualsiasi essa sia, è elevatissimo. Un rischio che le maglie dei moderatori dei vari social non riescono a prevenire completamente, considerato il volume delle interazioni istantanee.

TikTok – oggetto più volte di critiche sul controllo dei propri contenuti – ha dichiarato in un comunicato di aver dedicato risorse extra per aiutare a prevenire contenuti colmi d’odio o fuorvianti, “compreso un aumento delle risorse di moderazione in ebraico e arabo”.  Ma il problema sembra un gigante di fronte agli strumenti attualmente a disposizione, e non a caso c’è anche chi propone dei controlli esterni.

La proposta di controlli esterni: di cosa si tratta?

In base a quanto riportato sul New York Times, per esempio, Joshua Tucker – co-direttore del Center for Social Media and Politics della New York University – ha affermato che gli Stati Uniti hanno bisogno di una regolamentazione che imponga alle piattaforme social di condividere dati con ricercatori esterni.

“Lasciare le decisioni sulla trasparenza alle piattaforme significa che, per definizione, otterremo politiche che le piattaforme ritengono siano nel loro interesse in quel particolare momento”, ha affermato Tucker. Tuttavia, ha precisato: “A volte queste politiche potrebbero combaciare bene con gli interessi delle società, dei giornalisti e dei ricercatori esterni, a volte no”.

La questione è aperta e rappresenta la sfida del futuro perché la piazza virtuale è ormai (purtroppo) lo specchio distorto della vita reale.

Vera Monti
Vera Monti
Giornalista pubblicista e precedentemente vice- presidente di un circolo culturale, scrivo di arte e politica - le mie grandi passioni - su varie testate online cercando sempre di trattare ogni argomento in tutte le sue sfaccettature. Ho intervistato vari personaggi della scena artistica nazionale e per Trend online mi occupo principalmente di politica ed economia
Seguici
161,688FansLike
5,188FollowersFollow
782FollowersFollow
10,800FollowersFollow

Mailing list

Registrati alla nostra newsletter

Leggi anche
News Correlate