Stampa questa pagina

Quando il crimine paga: perché gli algoritmi premiano la disonestà

Guido Donati* 27 Ago 2025

 

Viviamo in un'epoca paradossale. Sebbene la legge stabilisca chiaramente che il crimine non deve pagare, il sistema economico e tecnologico in cui siamo immersi sembra aver ribaltato questo principio. Le piattaforme digitali, che dominano la nostra comunicazione e il nostro accesso alle informazioni, sono diventate il palcoscenico in cui la disonestà, in alcuni casi, non solo è tollerata, ma addirittura premiata.

Prendiamo il caso di una truffa online, dove un impostore sfrutta il nome di una celebrità per attirare investitori con la promessa di guadagni facili. Questo contenuto, pur essendo palesemente falso, genera un'ondata di interazioni: clic, commenti e condivisioni. L'algoritmo della piattaforma, progettato per massimizzare l'attenzione, non distingue tra vero e falso. Vede solo l'engagement e, di conseguenza, spinge il contenuto fraudolento a un pubblico ancora più vasto.

Così, due attori traggono profitto da un'azione criminale. Il truffatore si arricchisce ingannando le vittime, mentre la piattaforma guadagna dalla pubblicità generata dal traffico su quel contenuto. In questo sistema, il profitto è legato non alla qualità o alla veridicità, ma alla capacità di generare scalpore e interazione. È qui che risiede la profonda contraddizione.

L'algoritmo che guarda altrove: il calcolo cinico del profitto
Questo meccanismo di premiazione non è un difetto del sistema, ma una diretta conseguenza del suo modello di business. Il rischio più grande è che le piattaforme, non essendo editori, tendano a chiudere un occhio sui contenuti illeciti, soprattutto quando questi generano un guadagno significativo. Il calcolo è semplice e cinico: i potenziali profitti derivanti dalla viralità di un contenuto dannoso superano i costi e le sanzioni derivanti dalla sua diffusione.

Quando un'autorità o un utente segnala un contenuto fraudolento, la piattaforma sa che, agendo rapidamente, ridurrà il proprio traffico e, di conseguenza, i propri introiti. Il dilemma etico è evidente: preservare l'integrità del sistema e la sicurezza degli utenti o continuare a massimizzare i profitti? La storia recente dimostra che, troppo spesso, la scelta ricade sulla seconda opzione. È come un proprietario di un locale che ignora le attività illegali al suo interno perché attirano clienti.

Il caso della disinformazione: non solo le truffe
Il problema non si limita alle frodi economiche. Il meccanismo perverso che premia il contenuto virale a discapito della veridicità ha conseguenze devastanti anche in altri ambiti.

Salute pubblica: Durante la pandemia di COVID-19, la disinformazione ha prosperato online. Piattaforme che ospitavano video e post sui presunti pericoli dei vaccini o sulle cure miracolose hanno visto un'enorme crescita di traffico. Sebbene questi contenuti fossero scientificamente infondati e pericolosi, gli algoritmi li hanno promossi per la loro capacità di generare discussioni e reazioni emotive, spesso più intense rispetto a quelle di un'informazione scientifica noiosa ma corretta. Chi diffondeva queste "notizie" otteneva fama, visualizzazioni e, talvolta, guadagni diretti.

Politica: Le elezioni sono spesso terreno fertile per la disinformazione. Un contenuto che diffama un candidato, pur essendo falso, può diventare virale e influenzare l'opinione pubblica, generando un enorme traffico sulla piattaforma. L'algoritmo non si preoccupa del danno democratico, ma del numero di condivisioni che il contenuto genera, promuovendolo ulteriormente.

La responsabilità delle piattaforme: tra immunità e obbligo
La difesa delle piattaforme si è sempre basata sul concetto di "fornitore di servizi". Sostengono di non essere responsabili dei contenuti pubblicati dai loro utenti. Ma quando un'azienda sceglie attivamente di premiare la visibilità di un contenuto dannoso, non sta forse agendo come un editore? La domanda non è più se debbano rispondere per ciò che gli altri pubblicano, ma per ciò che loro stesse scelgono di promuovere.

La soluzione più pragmatica potrebbe risiedere in un'assunzione di responsabilità condivisa.

Una via d'uscita: colpire il profitto
Per spezzare questo circolo vizioso, la società deve inviare un messaggio chiaro. Un'azione concreta potrebbe partire dai casi più evidenti e meno ambigui, come le truffe.

Si potrebbe proporre una legislazione che sanzioni le piattaforme con una multa almeno doppia rispetto al guadagno ottenuto da contenuti fraudolenti che hanno causato un danno economico reale.
Ovviamente questo approccio sanzionatorio economico si può allargare anche a tutti i cybercrimini che coinvolgano qualsiasi sfruttamento degli esseri umani.

Questo approccio ha un doppio vantaggio:

Deterrente economico: Il costo della disonestà supererebbe i profitti. Le piattaforme avrebbero un fortissimo incentivo finanziario a investire nella prevenzione, invece che limitarsi alla rimozione a posteriori.

Giustizia e rivalsa: La piattaforma, trovandosi a pagare per i danni, avrebbe a sua volta il diritto di rivalersi legalmente su chi ha creato il contenuto falso, diventando così un alleato nella lotta contro il crimine online.

Solo rendendo economicamente svantaggioso il traffico generato dalla disonestà, potremo sperare di ripristinare il principio fondamentale della giustizia: il crimine non paga.

Bibliografia essenziale
P. D. Hall, J. R. A. Farris. The Social Dilemma: An Interdisciplinary Analysis of Digital Ethics and Social Media. (2020)

Shoshana Zuboff. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs, (2019)

Unione Europea. Digital Services Act (DSA).

R. A. Posner. Law, Pragmatism, and Democracy. Harvard University Press, (2003)

* Board member, SRSN (Roman Society of Natural Science)

 

Vota questo articolo
(0 Voti)