Riportiamo un estratto dell’ultimo contributo a firma del prof. Roberto Marseglia, pubblicato su Il Sole 24 Ore lo scorso venerdì 8 settembre.
Il chatbot alla fine ti dà sempre ragione. La solitudine nell’era dell’intelligenza artificiale
L’agente intelligente tollera ogni difetto dell’utilizzatore polarizzandone i comportamenti e le convinzioni
Da oramai diversi decenni la comunità scientifica ha posto la sua attenzione sul crescente problema della solitudine delle persone. La solitudine, infatti, è un fenomeno in crescita a livello globale e la situazione è peggiorata ulteriormente a seguito della pandemia di COVID-19. Questo sentimento pervasivo non solo ha un impatto emotivo, ma anche fisico, su chi ne soffre. Secondo l’American Association of Retired Persons (AARP), si stima che una persona sopra i 45 anni su tre negli Stati Uniti soffra di solitudine cronica. Anche nel Regno Unito la solitudine ha un impatto sociale importante tanto da avere istituito una commissione parlamentare per fare fronte al problema su proposta della parlamentare Jo Cox.
La domanda che è quindi giusto porsi è: l’intelligenza artificiale e i sistemi conversazionali possono contribuire positivamente per limitare la solitudine e gli effetti negativi che questa ha sulla salute delle persone?
La domanda, apparentemente banale, non suggerisce, però, una risposta scontata. Già nel 2018 la rivista del Massachusetts Institute of Technology – MIT Sloan uscì con un articolo intitolato “Even If AI Can Cure Loneliness — Should It?” (Anche se l’intelligenza artificiale potesse curare la solitudine dovrebbe farlo?) in cui si riconosceva ai sistemi intelligenti la capacità potenziale di creare un confronto e compagnia nelle persone, ma che contestualmente contestava la possibilità che questa scorciatoia nella creazione e nel coltivare relazioni potesse in una qualche maniera sconvolgere le norme sociali e limitare la nascita di genuine relazioni tra persone.
Il fatto che l’intelligenza artificiale tenda, infatti, a imparare dai comportamenti delle persone e a adeguare le sue risposte a quello che l’utente finale considera maggiormente preferibile farebbe sì che a tendere l’agente intelligente sia un sistema che l’utilizzatore percepisce come privo di difetti e che tollera – viceversa – ogni difetto dell’utilizzatore polarizzandone i comportamenti e le convinzioni (che, invece, in una dinamica relazionale normale, tendono a trovare naturale moderazione).