Le sfide etiche e sociali dell’Intelligenza artificiale al centro di un panel del Festival di Geopolitica “Mare Liberum”
Il 26 settembre 1983 il Pianeta è stato ad un passo dalla fine. E con esso l’intera umanità. Bastava davvero poco: premere un pulsante per dare il via alla terza guerra mondiale, quella dell’atomica. Non sarebbe rimasto più nessuno. Il tutto per un semplice errore del satellite sovietico che, a causa dell’abbaglio del sole riflesso dalle nuove, aveva “segnalato” il lancio di cinque missili balistici intercontinentali dalla base nel Montana negli States.
Un “errore” che solo l’uomo, e non la macchina, poteva leggere e interpretare al meglio. E così è stato. Stanislav Petrov, tenente colonnello dell’esercito sovietico, nel bunker Serpukhov 15, visto il segnale del satellite apparso sul suo schermo, si pone una domanda, cruciale: «Possono gli Stati Uniti scatenare una guerra mondiale con soli cinque missili? No!».
E così salvò il Pianeta dalla rappresaglia che lui avrebbe fatto scattare semplicemente premendo un bottone. Se lo avesse premuto, indicando il tutto alla scala gerarchica, sarebbero partiti missili balistici sufficienti a distruggere obiettivi strategici in Europa e negli Stati Uniti.
Con questo breve racconto, Claudio Corbino, presidente dell’Associazione Diplomatici, ha concluso i lavori del panel Oltre ChatGPT: Le sfide etiche e sociali dell’Intelligenza Artificiale evidenziando come «oggi l’uomo sia superiore alle macchine in quanto essere pensante». «Se Stanislav Petrov non avesse agito da uomo, ma come una macchina, oggi non saremmo qui», ha aggiunto tirando le fila del panel che, nell’auditorium dell’Associazione Diplomatici, ha registrato la presenza di numerosi studenti di diversi istituti scolastici.
Un momento dell'incontro
E a loro il rettore Francesco Priolo dell’Università di Catania ha rivolto un messaggio chiaro: «consapevolezza e governare l’evoluzione appartengono all’uomo e non all’Intelligenza Artificiale», rafforzando il concetto espresso da Corbino.
«Quindi se da un lato l’IA entrerà sempre più a far parte della nostra vita per le sue immense capacità di calcolo, dall’altro dovrà essere sempre l’uomo a governarla – ha aggiunto il rettore -. È sempre stato così nella storia dell’umanità e della sua evoluzione che nessuno potrà mai bloccare o frenare. Il mondo, grazie alla tecnologia e alle sue evoluzioni, è in continuo cambiamento, noi dobbiamo adeguarci e crescere detenendo e utilizzando sempre il pensiero critico».
E nel corso del suo intervento ha evidenziato come nel «corso della storia dell’uomo si è passati dalle lettere, alle mail, alle chat e adesso all’IA che sarà la “nuova” tecnologia delle future generazioni». «L’IA non ha consapevolezza umana e quindi è governabile. Sicuramente ci saranno lavori che potranno essere svolti dalle macchine e altri nuovi che nasceranno grazie all’evoluzione della tecnologia, ma grazie alla capacità di ragionamento dell’essere umano riusciremo sempre a muoverci nel mondo di domani senza essere schiavi della tecnologia», ha concluso il suo intervento.
Il rettore Francesco Priolo
A seguire il giornalista Nicola Zamperini ha evidenziato come «dietro ad un prodotto generalista come ChatGPT, in mano a pochi soggetti al mondo, vi sono investimenti tecnologici e forti interessi economici gestiti da MetaNazioni digitali come Stati Uniti e Cina». «ChatGPT ha un costo di un milione di euro al giorno, questo semplice dato dovrebbe farci capire cosa rappresenta questo prodotto digitale», ha aggiunto.
Sulle sfide etiche poste dall’IA sono intervenuti i filosofi e giuristi Nicola Dimitri e Bruno Montanari.
«L’IA e ChatGPT ci pongono tre quesiti fondamentali: stare al mondo, comprenderlo e i condizionamenti che possono derivare», ha detto in apertura di intervento il ricercatore dell’ateneo di Messina, Nicola Dimitri.
«Sul primo tema credo che la rivoluzione dell’IA ha un impatto importante sulla nostra società in cui emerge la dicotomia tra comunità o moltitudine di Io – ha aggiunto -. Sul secondo tema appare chiaro che da Alan Turing ad oggi l’uomo interagisce con le macchine che non hanno intenzionalità, ma oggi le macchine e la tecnologia mettono in discussione lo stare al mondo dell’individuo e il senso di comunità. E, infine, sul condizionamento delle tecnologie possiamo tranquillamente affermare che i nuovi modelli di IA svolgono un ruolo di coesione sociale apparentemente neutro, noi pensiamo di essere liberi e, invece, siamo più vincolati rispetto al passato da un potere tecnologico che nasconde quello “politico” detenuto da pochi».
E proprio sul “potere tecnologico” è intervenuto il docente Bruno Montanari che ha sottolineato come «dietro a questo vi un potere globale che trascende da quello delle Nazioni e che incide su numerosi fonti e risorse del Pianeta, come quelle energetiche, e questo fatto rappresenta un problema soprattutto per chi non fa parte del sistema».
«La storia l’ha fatta l’uomo in questi millenni sulla base di emozioni, sentimenti, stati d’animo e altro; l’IA non ha storia, è solo uno strumento esterno animato che sta condizionando la comunicazione tra noi sempre più visiva, senza particolare ragionamento, e sicuramente pronta a superare quella del linguaggio».
Gli studenti presenti all'incontro