“C’era un piano di sicurezza” e di controlli sui messaggi d’odio e sulla disinformazione che apparivano su Facebook, ma “dopo le elezioni presidenziali del 2020 qualcosa è cambiato”.
Gli algoritmi sarebbero cambiati e il sistema sarebbe diventato “meno sicuro”.
È quanto Frances Haugen, ex dipendente di Facebook, laureata a Harvard, assunta nel 2019 come ingegnere informatico addetta ai dati, ha affermato in un’intervista esclusiva sulla Cbs andata in onda al programma ’60 Minutes’. Dal quel momento – sempre secondo Haugen – la piattaforma social avrebbe allentato la censura dei messaggi d’odio e i contenuti che disinformavano sul risultato elettorale, finendo per favorire la diffusione dei messaggi sui presunti brogli.
La donna, considerata la misteriosa ‘gola profonda’ di Facebook, è uscita allo scoperto, mostrando il suo volto e tratteggiando un quadro inquietante della piattaforma che fa capo a Mark Zuckerberg. Martedì Haugen è attesa al Congresso per una deposizione.
“Facebook amplifica il peggio degli esseri umani – ha dichiarato – e questo atteggiamento si è allargato a Instagram. Avevano pensato che se avessero cambiato gli algoritmi per rendere il sistema più sicuro, la gente avrebbe speso meno tempo sui social, avrebbero cliccato meno le inserzioni pubblicitarie” e Facebook “avrebbe fatto meno soldi”.
“Hanno sempre preferito – ha aggiunto – il profitto alla sicurezza”. Haugen ha raccontato di aver deciso di intraprendere questa battaglia perché ha perso una persona cara a causa delle teorie cospirazioniste che circolavano sui social.
Riguardo Instagram, l’ingegnere ha sostenuto che impatta in modo drammatico sulle adolescenti: “Una ricerca realizzata da Facebook – ha raccontato – dice che le giovani donne che seguono contenuti legati al disordine alimentare, più seguono questi temi e più entrano in depressione. E questo porta a usare Instagram di più”.
In una dichiarazione scritta, Facebook si è difesa sostenendo che la compagnia “continua a fare significativi miglioramenti per contrastare la diffusione di disinformazione e contenuti che possano danneggiare le persone. Sostenere che incoraggiamo i cattivi contenuti e non facciamo niente per fermarli non è vero”.