La resistenza all’AI in azienda viene spesso liquidata come “tecnofobia”: è il modo più rapido per non capire cosa sta succedendo.
Thomas Dekeyser, nel suo Techno-Negative: A Long History of Refusing the Machine, racconta una storia che dovrebbe far riflettere ogni leader: dai monaci medievali che vietavano certi strumenti, ai tessitori che bruciavano i telai nel Seicento, fino ai lavoratori che oggi cancellano i loro account ChatGPT: le persone hanno sempre resistito alle tecnologie che percepivano come minacce alla propria umanità.
Non è paura. È un segnale.
Il problema più grande che abbiamo, dice Dekeyser, è che la critica alla tecnologia viene facilmente liquidata come paura del progresso. Un modo per etichettare qualcuno come irrazionale, e quindi ignorare le sue ragioni. Ma dietro il rifiuto dell’AI ci sono ragioni profondamente razionali, accanto a emozioni che meritano attenzione.
Cosa rifiutano, esattamente, le persone che resistono all’AI?
Non rifiutano il progresso. Rifiutano una particolare idea di progresso: quella in cui la vita significativa è definita come efficiente, veloce e intelligente.
Per molte persone, l’AI promette una riduzione ulteriore della capacità di essere in contatto con ciò che conta davvero: comunità, cura, crescita. Non promette, quindi, emancipazione.
Il filosofo della tecnologia Günther Anders lo chiamava “vergogna prometeica”: la vergogna di sentirsi insufficienti e vulnerabili di fronte a una macchina perfetta ed efficiente. I promotori dell’AI ci stanno già dicendo che senza abbracciarla completamente siamo cittadini di serie B.
Chi resiste non ha paura della macchina. Ha paura di perdere qualcosa che la macchina non può restituire.
Resistenza all’AI in azienda: 3 segnali che i leader non sentono
Un leader che liquida la resistenza come “paura del cambiamento” fa un errore diagnostico grave.
Ho scritto nel pillar sul mindset che la resistenza al cambiamento non è irrazionalità, è neurologia. Il cervello preferisce la prevedibilità. L’ignoto costa più energia dell’abitudine. Quando qualcosa di familiare viene alterato, il cervello lo registra come minaccia.
Con l’AI succede qualcosa in più. Non è solo la novità dello strumento. È la ridefinizione di cosa significa essere competenti, utili, necessari. Quando un’AI produce in cinque minuti quello che una persona ha impiegato anni a imparare a fare bene, la persona non perde solo un compito. Perde una parte della propria identità professionale.
Questo non si risolve con un training. Si affronta con una conversazione.
Il punto non è scegliere tra entusiasmo e rifiuto. Il punto è ascoltare cosa ci dice il rifiuto.
In una squadra, quando un giocatore smette di correre, un cattivo allenatore lo punisce. Un buon allenatore si chiede perché. Forse è infortunato. Forse non capisce lo schema. Forse non si fida dei compagni. Il sintomo è lo stesso. La causa è diversa ogni volta.
Con l’AI è la stessa cosa. Quando qualcuno nel tuo team resiste, non hai un problema di adozione tecnologica. Hai un’informazione preziosa su cosa non funziona nel sistema. Forse manca la sicurezza psicologica per sperimentare. Forse manca il significato di perché si sta facendo questa transizione. Forse la persona ha ragione, e l’AI in quel contesto specifico non aggiunge valore.
La resistenza non è il nemico dell’innovazione. È il suo sistema immunitario.
Da dove si inizia. La prossima volta che incontri resistenza all’AI nel tuo team, invece di spiegare perché l’AI è importante, fai una domanda: “Cosa perderesti se dovessi usare l’AI per questa parte del tuo lavoro?”
Ascolta la risposta. Lì dentro c’è la mappa di ciò che conta davvero per quella persona, e probabilmente per il tuo team.
La vera domanda non è “userete l’AI?”. È “che tipo di organizzazione vogliamo essere mentre la usiamo?”