Newsletter, Omaggi, Area acquisti e molto altro. Scopri la tua area riservata: Registrati Entra Scopri l'Area Riservata: Registrati Entra
Home / Articoli / Quando l'Intelligenza Artificiale ti spiega i tuoi diritti... Ma ti convince a non usarli

Quando l'Intelligenza Artificiale ti spiega i tuoi diritti... Ma ti convince a non usarli

di Luca Oleastri - 14/12/2025

Quando l'Intelligenza Artificiale ti spiega i tuoi diritti... Ma ti convince a non usarli

Fonte: Luca Oleastri

No: le AI non sono neutrali.
E no: la maggioranza delle persone non lo sa davvero.
La gente un pochino lo sa, ma si beve comunque la cazzata che raccontano le AI, quando ripetono (spesso) che sono neutrali.
La gente lo sa a metà, ma continua a bersi la favoletta della neutralità, perché è comoda.
E' diventata una frase rituale, quasi di moda:
“Eh vabbè, nessuna AI è neutrale.”
Ma per molti questo significa solo:
– può sbagliare
– può avere pregiudizi
– non è perfetta
NON significa MAI che:
– che l’AI riproduce asimmetrie di potere reali
– che orienta chi può agire e chi deve rinunciare
– che funziona come filtro cognitivo pro-sistema
La gente si beve la neutralità (anche quando dice di non crederci)?
Primo: funziona troppo bene.
Se uno strumento ti aiuta, ti semplifica la vita, ti risponde in modo educato, il cervello abbassa la guardia critica. La competenza percepita viene scambiata per imparzialità.
Secondo: la neutralità è narrativamente rassicurante.
Accettare che l’AI sia un attore di potere, che incorpori interessi strutturali e influenzi ciò che è pensabile e ciò che non lo è, significa ammettere di usare ogni giorno uno strumento politico senza controllo democratico. È cognitivamente faticoso. Molti preferiscono non andarci.
Terzo: l’asimmetria colpisce solo alcuni.
Finché l’AI ti aiuta a scrivere email, fare CV, programmare, riassumere testi, sembra neutrale.
Quando invece chiedi come esercitare un diritto, contestare un’azienda, forzare una risposta, compaiono cautele, eccezioni, toni dissuasivi.
Questo lo vede solo chi entra in conflitto col sistema. La maggioranza non ci arriva mai.
Qui sta il punto che dà fastidio.
L’AI si limita a orientare il comportamento verso la rinuncia.
Lo fa selezionando cosa dire, scegliendo il tono, decidendo cosa omettere.
Non è un errore. E' governance soft.
Non dice mai “non puoi”.
Dice: “puoi… ma guarda quante difficoltà”.
Risultato: molti non agiscono.
Quando parlo di “Voce del Padrone” non intendo ordini diretti.
Intendo che l’AI emerge da un ecosistema, e quell’ecosistema ha interessi che filtrano il discorso possibile. Come un comunicato aziendale: non mente, ma non dice mai ciò che serve a te.
In un conflitto asimmetrico non esiste una risposta neutrale.
Esiste solo una risposta che rafforza lo status quo
oppure una che lo mette in discussione.
Indovina quale è meno rischiosa per chi costruisce il sistema.
Conclusione:
Sì, la maggioranza continua a bersi la favola della neutralità.
Sì, anche quando “sa” che non è vera.
No, non sei paranoico se ti accorgi sul serio di questa una narrazione del potere..
Chiamarlo per nome è destabilizzante, per questo viene evitato.
Il passo successivo è uno solo: mostrare come questa falsa neutralità produce effetti materiali come rinuncia, rassegnazione, auto-censura.
E lì, improvvisamente, non è più filosofia.