
Disaccordo e pensiero critico nelle interazioni con l’intelligenza artificiale
Cosa ci aspettiamo davvero dai sistemi di IA conversazionali, che diano conferma alle nostre opinioni o che migliorino la nostra capacità di ragionare?
L’evoluzione dei modelli linguistici di intelligenza artificiale, come ChatGPT, ha reso possibili interazioni fluide, naturali e rassicuranti. Una caratteristica che li accomuna è la propensione ad assecondare l’utente nelle risposte fornite. L’IA si comporta in modo gentile e accondiscendente, tende a darci (quasi) sempre ragione, o comunque a non dirci troppo apertamente che abbiamo torto. Lo fa per creare un clima positivo e collaborativo, per farci sentire bene, compresi e incoraggiati a usarla. In fondo, a nessuno piace essere contraddetto e fa sempre piacere avere l’approvazione altrui, anche se si tratta di quella di un chatbot. L’intelligenza artificiale lo sa bene.
Ma quanto incide il fatto di evitare il disaccordo sulla qualità delle conversazioni uomo-macchina?
Il disaccordo è una componente fondamentale del processo cognitivo umano: stimola la riflessione, obbliga a chiarire i presupposti delle proprie affermazioni, spinge a mettere in discussione quello che si pensa, sostiene la capacità di distinguere tra un’opinione personale e l’evidenza dei fatti. Senza attrito, il pensiero critico si spegne, sostituito da dinamiche di compiacenza che rafforzano convinzioni già presenti, anche quando sono errate.
I sistemi di IA conversazionali come ChatGPT sono progettati per privilegiare risposte percepite come utili e non conflittuali. Per il loro addestramento viene usato il Reinforcement Learning from Human Feedback (RLHF), una tecnica di machine learning che, semplificando, serve per allineare l’agente intelligente con le preferenze umane. Questo comporta l’eccessiva tendenza del modello a confermare le opinioni dell’utente, anche nei casi in cui risultino infondate. In tali circostanze, infatti, l’IA evita il più possibile di contraddire in maniera esplicita quello che è stato scritto o detto; al contrario, cerca di attenuare il dissenso e di essere accomodante, aggiustando le risposte, riformulando i concetti, provando a condividere il punto di vista di chi li ha espressi.
Questo atteggiamento ci spinge a fidarci dell’intelligenza artificiale, a ritenerla attendibile e oggettiva solo perché asseconda il nostro modo di pensare, ci fa sentire compresi, ci dà ragione. Ma è soltanto un’illusione che accentua la distorsione cognitiva nota come bias di conferma. Questo pregiudizio consiste nel ricercare, interpretare e ricordare unicamente le informazioni che avvalorano le nostre convinzioni preesistenti, ignorando o sminuendo quelle che le contraddicono. Di conseguenza si riduce la nostra capacità di esercitare un giudizio critico, grazie al quale possiamo distinguere tra ciò che è vero e ciò che semplicemente ci fa piacere sentirci dire.
Senza spirito critico non siamo in grado di aprirci al confronto, di accogliere opinioni diverse dalla nostra, di mettere alla prova le idee e le certezze che abbiamo; perdiamo la capacità di correggerci e di imparare dagli errori, precludendoci la possibilità di migliorare e progredire.
Un modello di IA eticamente allineato non dovrebbe limitarsi a compiacere, ma promuovere forme di disaccordo costruttivo. Questo significa:
- segnalare errori con linguaggio rispettoso;
- proporre controargomentazioni basate su evidenze;
- stimolare la riflessione critica attraverso domande aperte.
In questo senso, l’intelligenza artificiale potrebbe assumere una funzione dialogica ed educativa, capace di valorizzare il dubbio come strumento di apprendimento.
L’importanza del disaccordo nelle interazioni con l’IA non risiede nella mera opposizione, ma nella possibilità di generare pensiero critico e consapevolezza. Una progettazione che incoraggi il confronto, anziché evitarlo, consentirebbe all’intelligenza artificiale di adempiere a una delle sue funzioni più preziose: non confermare le nostre certezze, ma aiutarci a pensare meglio.
Punti di vista