Argomenti dell'articolo
Proseguiamo i nostri interventi sull’Intelligenza Artificiale, in questi giorni al centro del dibattito anche del G7, con l’autorevole intervento di Papa Francesco, ospitando una riflessione del professor Francesco Bellino, docente di Bioetica presso la LUM, che sottolinea la necessità di una propedeutica conoscenza dei modelli matematici per poi superarli ed arrivare ad una algor-etica che possa sottendere all’intelligenza artificiale.
Qui abbiamo già pubblicato una nota del professor Gaetano Dammacco, mentre (qui qui e qui) una breve storia della tecnologia che sta portando allo sviluppo dell’intelligenza artificiale.
La Redazione
Intelligenza artificiale: dalla critica alla semplificazione algoritmica all’algor-etica
Il limite conoscitivo e predittivo dei modelli matematici applicati alla realtà è nella natura epistemologica della semplificazione algoritmica.
Come ha dimostrato Reichenbach, c’è una netta distinzione tra la geometria come disciplina matematica e la geometria come scienza fisica. Le proposizioni della geometria come disciplina matematica pura sono implicazioni necessarie ricavate da assiomi convenzionalmente posti e sono prive pertanto di valore reale o fattuale. Le proposizioni della geometria come scienza fisica presuppongono invece la corrispondenza di un determinato spazio reale ad un certo sistema di assiomi e tale corrispondenza può essere verificata solo empiricamente[1].
Galileo aveva ben coscienza di questa distinzione. Perché i calcoli tornino, “quando il filosofo geometra vuol riconoscere in concreto gli effetti dimostrati in astratto, bisogna che difalchi gli impedimenti della materia”[2].
Karl Popper, sulla scia di Tarski, discutendo dell’applicabilità di ogni calcolo, fa un analogo rilievo circa la differenza tra le proposizioni dell’aritmetica pura e quelle dell’aritmetica applicata. “Un calcolo, – afferma Popper – nella misura in cui è applicato alla realtà, perde il carattere di calcolo logico, e diventa una teoria descrittiva, che può essere empiricamente confutabile; e, nella misura in cui è ritenuto inconfutabile, come sistema di formule logicamente vere, piuttosto che come teoria scientifica descrittiva, non è applicato alla realtà”[3].
Le proposizioni dell’aritmetica pura (ad es. <<2+2=4>>) sono logicamente necessarie perché si riferiscono ad oggetti astratti, “cui non succede nulla”; le proposizioni dell’aritmetica applicata, come gli algoritmi, sono prive di necessità logica perché si riferiscono alla realtà, “dove accade sempre qualcosa”. Se mettiamo 2+2 conigli in una sporta, è possibile trovarne presto 7 o 8. Aggiunge Popper: “Chiaramente, nella misura in cui il mondo reale assomiglia a un siffatto mondo astratto, per esempio, nella misura in cui le mele non marciscono o marciscono molto lentamente, e i conigli e i coccodrilli non si riproducono; o in altre parole, nella misura in cui le condizioni fisiche si conformano all’operazione di addizione puramente logica o aritmetica, ovviamente, l’aritmetica resta applicabile”[4].
Afferma perentoriamente Joseph Weizenbaum: “E’ proprietà dei linguaggi formali, anzi è loro essenza, il fatto che tutte le loro regole di trasformazione sono puramente sintattiche, cioè descrivono i possibili modi di riordinare stringhe di simboli del linguaggio, compresa la sostituzione di simboli e l’introduzione di simboli nuovi – per esempio “)” e “(“ – indipendentemente da qualsiasi significato tali simboli possano avere al di fuori dello schema del linguaggio stesso”[5].
Per quanta intelligenza un computer possa avere, comunque l’abbia acquisita, sarà sempre e necessariamente estraneo a qualsiasi faccenda autenticamente umana, perché, come tutte le forme di ingegneria umana e sociale, elude tutti i contesti umani, e specialmente quelli che danno un significato reale al linguaggio umano.
“Un individuo viene disumanizzato ogni volta che viene trattato come qualcosa di meno di una persona nella sua interezza”[6].
Intelligenza Artificiale: l’intervento dell’Unione Europea
Sul potere tecnocratico opportunamente è intervenuta l’Unione Europea, pubblicando il 18 dicembre 2018 il Codice etico sull’IA, al quale hanno lavorato 52 esperti nominati dalla Commissione. Il Codice si basa su cinque principi: autonomia, non-maleficenza, beneficenza, giustizia, comprensibilità. Da tali principi scaturiscono i seguenti otto specifici divieti: di identificare gli individui senza il loro consenso; di procedere alla profilatura di categorie di soggetti da parte delle forze dell’ordine; di giungere al giudizio di persone tramite algoritmi che misurino la loro integrità; di impedire all’individuo di rivedere le proprie decisioni e quindi di interrompere il processo; di causare danni fisici e psicologici ad altri; di non consentire agli sviluppatori dell’algoritmo di poterlo modificare in caso di errore; di manipolare le persone con forme di “allucinazioni sociali”; di creare sistemi autocoscienti dotati di coscienza artificiali.[7]
Intelligenza Artificiale ed algor-etica
La sfida etica consiste nell’umanizzare la tecnica e nel non macchinizzare l’uomo. Benanti propone l’algor-etica[8]: “Se vogliamo che la macchina sia di supporto all’uomo e al bene comune, senza mai sostituirsi all’essere umano, allora gli algoritmi devono includere valori etici e non solo numerici. In sostanza, abbiamo bisogno di poter indicare i valori etici attraverso i valori numerici che nutrono l’algoritmo. L’etica ha bisogno di contaminare l’informatica. Abbiamo bisogno di un’algor-etica, ovvero di un modo che renda computabili le valutazioni di bene e di male. Dobbiamo codificare principi e norme etiche in un linguaggio comprensibile e utilizzabile dalle macchine. Perché quella delle AI sia una rivoluzione che porta a un autentico sviluppo è tempo di pensare un’algor-etica”.
Francesco Bellino
Docente Bioetica
Università LUM “Giuseppe De Gennaro
[1] Cfr, H. REICHENBACH, La nascita della filosofia scientifica, il Mulino, Bologna 1974, pp. 58, 69, 136, 146.
[2] G. GALILEI, Dialogo sopra i due massimi sistemi del mondo tolemaico e copernicano, Einaudi Torino 2002, p. 252.
[3] K. R. POPPER, Congetture e confutazioni, il Mulino, Bologna 1972, vol. I. p.361.
[4] Ivi, pp. 362-363.
[5] J. WEIZENBAUM, Il potere del computer e la ragione umana. I limiti dell’intelligenza artificiale, Edizioni Gruppo Abele, Torino 1987, p. 76.
[6] Ivi, p. 237.
[7] Cfr. L. FLORIDI, Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide, Raffaello Cortina, Milano 2022, cap. 4.
8 [8]P. BENANTI, Umanizzare le macchine perché sia vero sviluppo, in “Avvenire”, 25 maggio 2024, Gli speciali di “Avvenire”: “Intelligenza artificiale”, p.I.











