Dai replicanti di Blade Runner fino alle diaboliche macchine di Matrix, la fantascienza ha sempre dipinto l’intelligenza artificiale come una minaccia per il genere umano pronta a prendere il sopravvento. Un rischio che ormai non appare poi così irreale, se pure i pionieri come Bill Gates, Elon Musk e Stephen Hawking si sono più volte pronunciati sui possibili rischi derivanti dallo sviluppo delle macchine. Pericoli da cui possiamo ancora difenderci usando l’intelligenza umana, come spiega Marcello Restelli, docente di machine learning del Politecnico di Milano, nella nuova puntata della rubrica video #IlPOLIMIrisponde.
Il pericolo legato all’intelligenza artificiale sarà tanto più grande quante più decisioni importanti demanderemo alle macchine, spiega Restelli: “non ci dobbiamo preoccupare tanto dell’intelligenza artificiale, quanto della mancanza di intelligenza naturale” dell’uomo. Per far sì che le macchine non si trasformino in un boomerang, dovremo stabilire “nuove norme etiche”.
L’intelligenza artificiale, del resto, non è un’entità sovrumana e incontrollabile, ma solo “un insieme di codici software che permettono a una macchina di prendere decisioni in modo autonomo, ricorda l’esperto. La più innocua è la cosiddetta “intelligenza artificiale debole, che si occupa di risolvere problemi specifici come giocare una partita a scacchi, tradurre un testo o guidare un’auto: sono compiti precisi e formalizzati per cui le tecniche disponibili sono già molto sviluppate e permettono di ottenere performance paragonabili a quelle degli umani se non addirittura superiori”. Maggiore attenzione va invece prestata alla “intelligenza artificiale forte, che richiede di sviluppare capacità più complesse come la creatività, il pensiero astratto e l’inventiva. Questa – ammonisce Restelli – potrebbe portare a una intelligenza artificiale superiore a quella umana: il timore è che possa manipolare il nostro comportamento”.