Intelligenza artificiale: Benanti (Gregoriana), “governance collettiva perché diventi opportunità di bene”. Vacca (ingegnere), “prevedere conseguenze azioni”

L’universo complesso dell’intelligenza artificiale o meglio delle “intelligenze artificiali” che “offrono dati e schemi ma non possiedono la ‘cognizione'” richiede “una governance collettiva non una gestione top down”. Ne è convinto p. Paolo Benanti, docente di “neuroetica” e “tecnoetica” presso la Pontificia Università Gregoriana, intervenuto questa sera a Roma all’incontro “Homo sapiens e machina sapiens. Speranze, timori, opportunità”, promosso all’interno della cornice del Cortile dei gentili. Per Benanti, “occorre creare un luogo dove diverse intelligenze si confrontino per gestire e regolamentare il funzionamento di questa innovazione facendola diventare opportunità di sviluppo secondo gli obiettivi del bene comune”. Per Roberto Vacca, ingegnere sistemista e scrittore, “dovremmo fare progressi sui sistemi con i quali le macchine comunicano tra loro. Per capire quanto un sistema sia soggetto a evenienze imprevedibili, dobbiamo renderci conto che se lo analizziamo non sempre capiamo perché segue certe regole”. Per l’esperto “controllare che non avvengano errori è difficile. Le macchine sono sapienti ma in modo limitato. Sappiamo che i sistemi intelligenti funzionano: alcuni li adoperiamo tutti i giorni” ma spesso “non sappiamo come funzionano”. Per essere etici, gli uomini devono capire quello che fanno e prevederne le conseguenze”. Di qui alcune regole: tra queste “cerca di prevedere tutti gli effetti di ogni tua azione; se non sai chiedi consiglio a esperti; immagina soluzioni paradossali, valuta conseguenze e rischi; utilizza solo prodotti tecnologici veramente utili, molti non lo sono”.

© Riproduzione Riservata

Quotidiano

Quotidiano - Italiano

Chiesa

Informativa sulla Privacy