Intelligenza artificiale: Tomasi (WeCa), “possibile attribuire alle macchine qualche forma di responsabilità morale”

“Per quanto autonome e autosufficienti, le macchine operano solo nei limiti concessi dall’algoritmo che le controlla. La responsabilità è sempre e solo quella di chi le progetta, le costruisce, le programma. Con possibili errori, con una logica che deve essere resa trasparente, ma che spesso ci dobbiamo limitare a constatare dall’esterno, in base al comportamento della macchina come conseguenza degli input ricevuti”. Lo scrive Andrea Tomasi del direttivo WeCa e docente all’Università di Pisa nella rubrica “Robot, rete e algoritmi in cerca di coscienza” su www.weca.it, il sito dei webmaster cattolici, nel primo contributo sul fenomeno delle intelligenze artificiali. “L’intelligenza artificiale si propone sempre più come ‘mente pensante’, con due diverse accentuazioni: quello di ‘sistema nervoso’ dei robot e quello di ‘simulatore dei sentimenti’ nella rete – segnala l’esperto -. Ai due ambiti corrispondono due differenti questioni etiche, rispettivamente riguardanti le azioni dei robot e l’influenza dell’ambiente virtuale sulla persona, nel caso della rete”. A proposito della possibilità di “installare valori etici nelle intelligenze artificiali”, Tomasi si domanda, citando Romano Guardini, “come governare e coordinare il progresso tecnico e quello umano” e se “l’opera dell’uomo potrebbe diventare autonoma e minacciare il futuro della persona umana”. “Solo se si possono realizzare algoritmi che rendono le macchine autosufficienti nell’azione e anche capaci di autodeterminarsi consapevolmente, si può attribuire alle macchine qualche forma di responsabilità morale”, sostiene Tomasi.

© Riproduzione Riservata

Quotidiano

Quotidiano - Italiano

Italia

Informativa sulla Privacy