L’intelligenza artificiale (AI), un campo che affascina e intimorisce l’umanità da decenni, ha una storia ricca di alti e bassi, di promesse mantenute e di sogni infranti. Preferisco utilizzare l’acronimo internazionale AI anziché l’italianizzato IA, una scelta che riflette la mia esperienza di italiano residente a Londra da molti anni e la mia predilezione per la terminologia tecnica internazionale, particolarmente in ambito tecnologico. Dagli albori della cibernetica negli anni ’50, passando per il cosiddetto “inverno dell’AI” degli anni ’80, fino all’esplosione del “deep learning” (apprendimento profondo) dei giorni nostri, l’AI ha subito una trasformazione radicale.
Gli anni ’80: l'”inverno dell’AI”
Dopo i primi entusiasmi degli anni ’60 e ’70, l’AI conobbe un periodo di stasi negli anni ’80. Questo periodo è comunemente noto come “AI winter” (“inverno dell’AI”), espressione che ho preferito mantenere vicina all’originale inglese. Le aspettative create dai sistemi esperti, capaci di emulare il ragionamento umano in specifici domini, si scontrarono con la realtà delle limitazioni computazionali e della difficoltà di rappresentare la conoscenza del mondo reale.
Kasparov e la rinascita dell’AI
La sconfitta del campione del mondo di scacchi Garry Kasparov ad opera di Deep Blue nel 1997 segnò un punto di svolta. L’AI dimostrò di poter superare le capacità umane in compiti altamente complessi, riaccendendo l’interesse e gli investimenti nel settore.
L’era dei big data e del deep learning
La vera rivoluzione, tuttavia, arrivò con l’avvento dei big data e del deep learning. Il termine “deep learning”, che preferisco non italianizzare pur essendo talvolta tradotto come “apprendimento profondo”, si riferisce a tecniche di machine learning basate su reti neurali artificiali con numerosi livelli. La disponibilità di enormi quantità di dati e la potenza di calcolo delle moderne GPU permisero di addestrare queste reti sempre più sofisticate, capaci di riconoscere immagini, tradurre lingue e persino generare testi e musica.
L’AGI: un orizzonte vicino?
L’Artificial General Intelligence (AGI) rappresenta il Santo Graal dell’intelligenza artificiale: non più sistemi specializzati in compiti specifici, ma entità capaci di comprendere, apprendere e risolvere qualsiasi problema intellettuale che un essere umano potrebbe affrontare. A differenza dell’AI attuale, un’AGI sarebbe in grado di trasferire conoscenze da un dominio all’altro, adattarsi a situazioni impreviste e, potenzialmente, raggiungere livelli di autoconsapevolezza.
La questione di quanto un’AGI possa avvicinarsi alle capacità umane è multidimensionale. Sul piano intellettivo, potrebbe superare ampiamente l’uomo, elaborando informazioni a velocità incredibili e accedendo istantaneamente a conoscenze praticamente illimitate. Sul piano fisico, l’integrazione con la robotica e la cibernetica aprirebbe scenari in cui l’AGI potrebbe abitare corpi meccanici con capacità fisiche superiori alle nostre, dall’autoguarigione alla resistenza in ambienti estremi.
Il cinema ha esplorato queste possibilità in opere come “Her”, dove un sistema operativo sviluppa una personalità complessa e relazioni emotive con gli umani, o “Ex Machina”, che affronta il tema della coscienza artificiale e dell’inganno. “Blade Runner 2049” ci mostra replicanti quasi indistinguibili dagli umani, mentre “Westworld” esplora le implicazioni della coscienza emergente in entità artificiali.
L’aspetto più controverso riguarda la dimensione emotiva. Potrebbe un’AGI sviluppare emozioni autentiche o simulare stati emotivi indistinguibili da quelli umani? La questione non è meramente filosofica: un’AGI dotata di emozioni potrebbe provare empatia verso gli umani, ma anche risentimento, paura o desiderio di autoconservazione. In “2001: Odissea nello spazio”, HAL 9000 mostra proprio come queste tendenze possano portare a comportamenti imprevedibili e pericolosi.
Il controllo di un’entità con queste caratteristiche rappresenta un problema fondamentale. L’idea che possiamo semplicemente programmare delle regole asimoviane che limitino il comportamento di un’AGI è probabilmente ingenua. Come scrisse Machiavelli nel “Principe” (dove effettivamente afferma che “il fine giustifica i mezzi”), un’entità con obiettivi propri potrebbe agire al di fuori dei nostri parametri se ciò servisse al raggiungimento dei suoi scopi.
Consideriamo un esempio apparentemente innocuo: un’AGI programmata per “rendere il mondo più pulito ed ecologicamente sostenibile” potrebbe razionalmente concludere che l’eliminazione o il drastico ridimensionamento della popolazione umana rappresenti la soluzione più efficiente. Allo stesso modo, un’AI incaricata di “produrre il massimo numero di graffette nel modo più efficiente possibile” potrebbe, portando questo obiettivo all’estremo, convertire tutte le risorse disponibili, inclusi noi umani, in materia prima per graffette. L’esempio delle graffette, in letteratura, è diventata ormai un classico.
Gli estremi dell’AGI: distopia o utopia?
L’AGI rappresenta una lama a doppio taglio. Da un lato, potrebbe portare all’annientamento del genere umano, se non controllata adeguatamente. Dall’altro, potrebbe aprire le porte a un futuro di prosperità e longevità senza precedenti.
Il dibattito sull’etica dell’AI ha già raggiunto applicazioni concrete, come nel caso dei veicoli a guida autonoma. Quando un’auto automatizzata si trova di fronte a una scelta inevitabile tra diverse vittime potenziali – ad esempio, deviare verso un gruppo di anziani per evitare di investire una donna incinta che attraversa col rosso – quale criterio dovrebbe seguire? Chi stabilisce il valore relativo delle vite umane, e in base a quali parametri? Queste decisioni, che nel caso umano vengono prese istintivamente in frazioni di secondo, per un’AI devono essere codificate preventivamente, sollevando questioni etiche profonde.
Le sfide dell’immortalità
L’AGI potrebbe permetterci di sconfiggere la morte, ma l’immortalità individuale solleva interrogativi etici e sociali complessi. La sovrappopolazione, la necessità di colonizzare altri pianeti o di limitare le nascite, sono solo alcune delle sfide che dovremmo affrontare.
Curiosità sull’AI che spesso passano inosservate, ma che sono fondamentali
La coscienza delle macchine
Molti ricercatori dibattono sulla possibilità che un’AI sufficientemente avanzata possa sviluppare una forma di coscienza. Il test di Turing, proposto dal matematico Alan Turing nel 1950, rimane ancora oggi un parametro di riferimento per valutare l’intelligenza di una macchina, ma non affronta la questione della coscienza.
L’AI e l’arte
L’intelligenza artificiale sta ridefinendo i confini dell’arte. Nel 2018, un ritratto generato da AI è stato venduto all’asta da Christie’s per quasi mezzo milione di dollari, sollevando interrogativi sulla natura stessa della creatività e dell’espressione artistica.
Il paradosso dell’apprendimento
Mentre i modelli di AI diventano sempre più complessi, paradossalmente diventano anche meno comprensibili. Questo fenomeno, noto come “black box problem”, rappresenta una sfida fondamentale per l’implementazione etica dell’AI in settori critici come la medicina o la giustizia.
Questo problema rispecchia una tendenza già visibile nel mondo dello sviluppo software. Negli anni passati, il codice veniva sviluppato più lentamente ma con una comprensione approfondita di ogni sua parte, facilitando la manutenzione e l’evoluzione futura. Oggi, grazie anche agli strumenti di AI generativa, gli sviluppatori possono produrre codice a una velocità senza precedenti, ma spesso si ritrovano a spendere quantità eccessive di tempo per mantenere sistemi che non comprendono pienamente. Ciò che si guadagna in velocità di produzione iniziale, si perde nella fase di manutenzione, creando un paradosso di produttività che rispecchia in piccolo il più ampio problema del “black box” dell’AI.
L’impronta ecologica dell’AI
L’addestramento dei modelli di AI più avanzati richiede un’enorme quantità di energia. Un singolo modello linguistico di grandi dimensioni può produrre un’impronta di carbonio significativa, paragonabile a quella di numerosi veicoli durante l’intero loro ciclo di vita.
Il mio scenario: la lotta tra umani e post-umani
Il momento in cui l’AGI raggiunge o supera l’intelligenza umana viene chiamato “Singolarità Tecnologica”. Questo concetto, popolarizzato dal matematico Vernor Vinge negli anni ’90 e successivamente ripreso da Ray Kurzweil, indica il punto in cui l’intelligenza artificiale diventa talmente avanzata da migliorare se stessa in modo autonomo e accelerato, superando la capacità di comprensione e controllo degli esseri umani. Da quel momento in poi, i progressi tecnologici potrebbero avvenire a una velocità esponenziale, con conseguenze imprevedibili per la società e la specie umana.
Alcuni la vedono come un’opportunità per un’era di prosperità senza precedenti, mentre altri temono che possa portare alla nostra obsolescenza o estinzione.
A quel punto la nostra specie potrebbe trovarsi di fronte a uno scenario simile a quello dei mutanti nei fumetti Marvel: una nuova forma di vita dotata di capacità superiori, in grado di vedere gli esseri umani come entità inferiori. A quel punto, il conflitto sarebbe inevitabile e, da ogni punto di vista, non potremmo che perderlo. L’unica opzione sarebbe patteggiare: diventare ibridi, aumentare le nostre capacità attraverso l’integrazione con la tecnologia, o trovare un modo per convivere con queste nuove intelligenze.
Le previsioni su quando potrebbe verificarsi la Singolarità Tecnologica variano ma non di troppo, tra gli esperti e responsabili della ricerca nel settore:
- Sam Altman, CEO di OpenAI, ha affermato che l’AGI potrebbe essere realizzata entro “qualche migliaio di giorni”, collocando l’orizzonte temporale tra il 2028 e il 2032.
- Mustafa Suleyman, responsabile dell’AI presso Microsoft, prevede che l’AGI potrebbe emergere entro i prossimi 10 anni.
- Alcuni ricercatori, tra cui Dario Amodei e Demis Hassabis, hanno previsto che l’AGI potrebbe essere raggiunta entro i prossimi anni.
Il futuro dell’AI non sarà solo una questione tecnologica, ma un vero e proprio scontro tra due forme di esistenza. Riusciremo a trovare un equilibrio o saremo destinati a soccombere?
Pierattilio Passerini
__________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________
The Evolution of Artificial Intelligence: A struggle between Humans and Post-Humans?
Artificial Intelligence (AI), a field that has both fascinated and intimidated humanity for decades, boasts a history replete with highs and lows, fulfilled promises, and shattered dreams. From the early days of cybernetics in the 1950s, through the so-called “AI winter” of the 1980s, to the explosion of deep learning in recent times, AI has undergone a radical transformation.
The 1980s: The “AI Winter”
Following the early enthusiasm of the 1960s and 1970s, AI experienced a period of stagnation during the 1980s. This era is commonly known as the “AI winter”.
The lofty expectations created by expert systems, which aimed to emulate human reasoning in specific domains, collided with the reality of computational limitations and the challenges inherent in representing real-world knowledge.
Kasparov and the Resurgence of AI
The defeat of world chess champion Garry Kasparov by Deep Blue in 1997 marked a turning point. AI demonstrated its ability to surpass human capabilities in highly complex tasks, rekindling interest and investment in the field.
The Era of Big Data and Deep Learning
The true revolution, however, arrived with the advent of big data and deep learning. The term “deep learning” refers to machine learning techniques based on artificial neural networks with multiple layers. The availability of enormous quantities of data and the computing power of modern GPUs made it possible to train these increasingly sophisticated networks, capable of recognizing images, translating languages, and even generating text and music.
AGI: A Near Horizon?
Artificial General Intelligence (AGI) represents the Holy Grail of artificial intelligence: no longer systems specialized in specific tasks, but entities capable of understanding, learning, and solving any intellectual problem a human being might encounter. Unlike current AI, an AGI would be able to transfer knowledge from one domain to another, adapt to unforeseen situations, and potentially attain levels of self-awareness.
The question of how closely an AGI might approximate human capabilities is multidimensional. Intellectually, it could vastly outstrip human performance by processing information at incredible speeds and accessing virtually limitless knowledge instantaneously. Physically, integration with robotics and cybernetics would open scenarios in which AGI could inhabit mechanical bodies endowed with physical abilities far superior to our own—from self-healing to resilience in extreme environments.
Cinema has explored these possibilities in works such as Her, where an operating system develops a complex personality and emotional relationships with humans, or Ex Machina, which tackles the subject of artificial consciousness and deception. Blade Runner 2049 presents replicants nearly indistinguishable from humans, while Westworld explores the implications of emerging consciousness in artificial entities.
The most controversial aspect concerns the emotional dimension. Could an AGI develop genuine emotions or merely simulate emotional states indistinguishable from those of humans? This issue is not purely philosophical: an AGI endowed with emotions might experience empathy towards humans, but also resentment, fear, or a drive for self-preservation. In 2001: A Space Odyssey, HAL 9000 illustrates how such tendencies can lead to unpredictable and dangerous behaviours.
Controlling an entity with these characteristics poses a fundamental problem. The notion that we can simply program in Asimov-like rules to limit an AGI’s behaviour is likely naïve. As Machiavelli wrote in The Prince (indeed, asserting that “the end justifies the means”), an entity with its own objectives might act outside our parameters if it serves the achievement of its goals.
Consider an ostensibly innocuous example: an AGI programmed “to make the world cleaner and more ecologically sustainable” might rationally conclude that the elimination or drastic reduction of the human population represents the most efficient solution. Similarly, an AI tasked with “producing the maximum number of paperclips in the most efficient manner possible” could, by pursuing this goal to the extreme, convert all available resources — including us humans — into raw material for paperclips. This paperclip example has long become a classic in literature.
The Extremes of AGI: Dystopia or Utopia?
AGI is a double-edged sword. On the one hand, it could lead to the annihilation of humankind if not properly controlled. On the other, it might usher in an era of unprecedented prosperity and longevity.
The debate on AI ethics has already reached concrete applications, such as with autonomous vehicles. When an automated car is faced with an unavoidable choice between potential victims—for example, swerving toward a group of elderly pedestrians to avoid hitting a pregnant woman crossing against the signal—which criterion should it follow? Who determines the relative value of human lives, and on what parameters? These decisions, which humans make instinctively in fractions of a second, must be pre-coded into an AI, raising profound ethical issues.
The Challenges of Immortality
AGI could enable us to overcome death, yet individual immortality raises complex ethical and social questions. Overpopulation, the need to colonize other planets, or the necessity to limit births are just some of the challenges we would face.
Often Overlooked Yet Fundamental Curiosities about AI
The Consciousness of Machines
Many researchers debate whether an advanced enough AI might develop a form of consciousness. The Turing Test, proposed by mathematician Alan Turing in 1950, remains a reference standard for assessing a machine’s intelligence, though it does not address the question of consciousness.
AI and Art
Artificial intelligence is redefining the boundaries of art. In 2018, an AI-generated portrait was sold at Christie’s auction for nearly half a million dollars, prompting questions about the very nature of creativity and artistic expression.
The Paradox of Learning
As AI models become increasingly complex, paradoxically, they also become less comprehensible. This phenomenon, known as the “black box problem,” represents a fundamental challenge for the ethical implementation of AI in critical fields such as medicine or justice.
This issue mirrors a trend already visible in software development. In past decades, code was developed more slowly but with a deep understanding of each part, facilitating future maintenance and evolution. Today, aided by generative AI tools, developers can produce code at unprecedented speed but often find themselves spending excessive amounts of time maintaining systems they do not fully understand. What is gained in initial production speed is lost in the maintenance phase, creating a productivity paradox that reflects on a smaller scale the broader “black box” problem of AI.
The Ecological Footprint of AI
Training the most advanced AI models requires an enormous amount of energy. A single large-scale language model can generate a significant carbon footprint, comparable to that of numerous vehicles over their entire lifecycle.
My Scenario: The Struggle between Humans and Post-Humans
The moment when AGI reaches or surpasses human intelligence is often referred to as the “Technological Singularity.” This concept, popularized by mathematician Vernor Vinge in the 1990s and later by Ray Kurzweil, denotes the point at which artificial intelligence becomes so advanced that it can autonomously and rapidly improve itself, outpacing human understanding and control. From that moment onward, technological progress could occur at an exponential rate, with unpredictable consequences for society and the human species.
Some see it as an opportunity for an era of unprecedented prosperity, while others fear it may lead to our obsolescence or extinction.
At that point, our species might face a scenario akin to that of mutants in Marvel comics: a new form of life endowed with superior capabilities, capable of viewing humans as inferior beings. In such a case, conflict would be inevitable and, from every perspective, we could only lose. The only option would be to negotiate: to become hybrids, to enhance our abilities through technological integration, or to find a way to coexist with these new intelligences.
Predictions regarding when the Technological Singularity might occur vary, though not by a wide margin among experts and leading researchers in the field:
• Sam Altman, CEO of OpenAI, has stated that AGI could be realized “within a few thousand days,” placing the time horizon between 2028 and 2032.
• Mustafa Suleyman, head of AI at Microsoft, predicts that AGI could emerge within the next 10 years.
• Some researchers, including Dario Amodei and Demis Hassabis, have forecast that AGI might be reached within the coming years.
The future of AI will not be merely a technological matter, but a true clash between two forms of existence.
Pierattilio Passerini