Nonostante siamo nel 2019 e la tecnologia non è mai stata così all’avanguardia, per alcuni compiti non vi sono ancora intelligenze artificiali in grado di rimpiazzare il lavoro umano. Come nel caso dei moderatori di Facebook che sono costretti ogni giorno a leggere e sentire tutto il marcio che gira sulla piattaforma.

Nonostante vi sia un’AI che aiuta a identificare e rimuovere i contenuti che vengono segnalati come “offensivi” in Facebook, il sistema non è ancora infallibile e per molte decisioni è ancora necessario un occhio umano che possa capire e interpretare nella maniera corretta se un post che è stato contrassegnato è effettivamente in linea con le policy di Facebook e del buon senso oppure no.

Le persone che moderano facebook passano infatti le loro giornate a leggere tutte le schifezze che gli utenti postano ogni giorno a partire da cospirazioni, foto di omicidi, discorsi di odio, immagini pornografiche di varia natura, violenza su animali etc.

La lista in realtà è ancora lunga, ma penso che avrete afferrato il concetto.

E’ quindi per questo che spesso il lavoro del moderatore di Facebook è molto delicato e sopratutto sottoposto quotidianamente ad una dura prova di resistenza psicologica.

La maggior parte di loro lavora per un’azienda specializzata chiamata Cognizant e a quanto pare il numero di persone che rimangono nell’azienda per più di un anno è veramente basso e molti di loro hanno sofferto di qualche forma di stress o disordine emotivo al termine del lavoro.

La dura vita del moderatore di Facebook

Da una recente intervista di Newton che ha intervistato anonimamente alcuni impiegati di Cognitizen sono infatti emersi dettagli molto inquietanti.

Quello che si è percepito è di un sistema ancora pieno di falle che non è in grado di adempiere adeguatamente a questo sporco compito di monitoraggio delle attività di Facebook.

“Uno dei motivi per cui me ne sono andato è perché non mi sentivo più al sicuro a casa mia o nella mia stessa pelle. Non mi sentivo più al sicuro neanche con i colleghi e per questo ho iniziato a portare una pistola.”

Altri impiegati riportano di molti disturbi che hanno accusato dopo aver visto casi di assassinio, crimini di odio o altri contenuti molto espliciti che sono pubblicati su Instagram e Facebook.

Alcuni dei moderatori addirittura venivano contagiati dagli stessi post che stavano moderando iniziando a credere ad assurde teorie e complotti.

Metodi di sopravvivenza

A quanto pare per riuscire a sopravvivere a questo ambiente malsano diversi dipendenti hanno iniziato ad avere comportamenti atipici a lavoro. Alcuni hanno ammesso di fare uso di sostanze stupefacenti mentre altri di praticare sesso al lavoro.

” Non ti saprei dire con quante persone ho fumato. E’ molto triste se  ci ripenso ora – mi fa male al cuore. Scendevano a fumare e tornavamo a lavoro strafatti. Non è molto professionale.”

Inutile dire che questo sistema è molto fragile e non sembra funzionare come dovrebbe. I Moderatori erano giudicati sulla precisione con cui rimuovevano i post. Come? Semplice, la decisione veniva valutata in base a quello che avrebbero fatto i loro responsabili.

Questo significa che entrambi potrebbero aver avuto torto, infatti le linee guida interne per la valutazione degli articoli venivano cambiate molto spesso sopratutto in vista di avvenimenti importanti, tuttavia venivano presentate in modo disordinato proprio come la timeline di Facebook.

“La precisione è solamene valutata da un accordo tra le due parti. Se sia io che il mio capo diciamo che l’uso e la vendita di eroina è consentito – per esempio – allora Cognizant ha ragione in questo caso – anche se ovviamente non è così”

Per un approfondimento vi rimandiamo alla lunga intervista pubblicata su The Verge che vi farà conoscere il lato oscuro di Facebook.

Ti invieremo un' email a settimana, puoi cancellare l'iscrizione in qualunque momento.

Potrebbe interessarti anche:


LASCIA UN COMMENTO

Please enter your comment!
Scrivi il tuo nome