giovedì 16 settembre 2010

Singolarità Tecnologica in avvicinamento a babordo!

La Singolarità Tecnologica  è un concetto della futurologia che prevede l'esistenza, nel corso dello sviluppo di una civiltà, di un punto in cui l'accelerazione tecnologica è tanto profonda e rapida da oltrepassare e trascendere totalmente le capacità umane di comprensione e previsione.
L'argomento, per quanto possa sembrare astruso a chi non ne ha mai sentito parlare prima, è serissimo e vastamente discusso. Inoltre è certamente troppo vasto per poter essere sufficientemente trattato in un unico e misero post. Nonostante l’oggettiva difficoltà, tenterò tuttavia di tracciare per sommi capi i concetti base della Singolarità Tecnologica, poiché ritengo che l'argomento sia ingiustamente relegato in un ambito di nicchia da “tecnofili incalliti”.


Un primo punto cruciale di questa affascinante ipotesi è l'emergere (in modo spontaneo oppure pianificato) di una forma di super-intelligenza. Per super-intelligenza intendo un’intelligenza generale con facoltà diffusamente superiori a quelle umane. La super-intelligenza dev’essere generale, ossia non specializzata in un unico e limitato aspetto (come può essere ad esempio il gioco degli scacchi) e quindi in grado di affrontare compiti variegati. Inoltre dev’essere superiore nelle capacità intellettuali umane in modo evidente (vale a dire in molteplici ambiti e in modo manifesto). Una possibile super-intelligenza potrebbe essere un'intelligenza artificiale generale autoricorsiva, ossia in grado di migliorare costantemente la sua stessa progettazione. Questo tipo è sicuramente il più facile da immaginare e coinciderebbe sostanzialmente con un computer dotato di hardware e/o software molto evoluto. Nonostante numerosi racconti e film di fantascienza ci rendano facile concepire una super-intelligenza sotto questa forma, non vuol dire che questo sia l’unico modo in cui essa potrebbe manifestarsi e forse non è neppure la forma più probabile. Una super-intelligenza potrebbe coincidere, ad esempio, con un risveglio spontaneo di vaste reti di computer (normali) collegati tra loro. Questo tipo di super-intelligenza potrebbe funzionare tramite un grandissimo numero di “mini-intelligenze cooperative”. Essa cioè sarebbe una sorta di intelligenza artificiale collettiva, paragonabile nel funzionamento (ma superiore per potenza ovviamente) al funzionamento di un formicaio. Le singole formiche non posseggono neppure un cervello, ma il loro comportamento complessivo (il formicaio appunto) mostra adattabilità e capacità tipiche dell'intelligenza. L'avvento della super-intelligenza potrebbe anche essere innescato da nuove interfacce uomo-macchina ad altissima efficienza (quali ad esempio possibili interfacce in grado di connettere direttamente computer e cervello umano) oppure si potrebbero creare i presupposti ad una super-intelligenza tramite il potenziamento diretto del cervello umano (tramite nanotecnologie, sostanze neuro-alteranti, ingegneria genetica o altro). Le strade a cui giungere allo scavalcamento delle facoltà intellettive dell’uomo sono più numerose di quanto si potrebbe pensare in un primo momento.
Indipendentemente da ciò, quello che è importante notare è che, una volta creata una prima super-intelligenza, si creerebbero le premesse per una drastica e rapida frattura. Una frattura come il genere umano non ne ha mai viste prima. Una frattura più che storica, epocale. Una frattura drastica tra il prima e il dopo tale avvento. Di fatto non una scoperta, per quanto eccezionale, ma pittosto un balzo evoluzionistico simile a quello che ha visto la comparsa della vita sulla terra. La biologia, così come la conosciamo ora, non ha la capacità di riprogettarsi se non tramite il lento processo di selezione naturale. L'essere umano, grazie alle sue facoltà mentali e alla capacità di accumulare conoscenza per via culturale, è riuscito ad estendere le sue capacità d'adattamento in modo impressionante. Tuttora però non siamo in grado di modificare radicalmente e consapevolmente la nostra biologia. Soprattutto, non siamo in grado di espandere sensibilmente le nostre funzioni celebrali, migliorandole e potenziandole. Ad esempio, non siamo in grado di trasferire da una persona ad un’altra il sapere se non lentamente e per via indiretta (tramite l'apprendimento). Non siamo in grado di eliminare i nostri difetti congeniti: l’irrazionalità di base che ci contraddistingue e che possediamo, poiché si è rivelata utilissima per milioni d'anni nella vita della savana, ma che è evidentemente pericolosa quando si ha a che fare con bombe nucleari o con sistemi sociali ed economici potenti quali quelli attuali.

Il fascino della teoria della Singolarità Tecnologica è evidente. Una volta assimilato il concetto di base, però, si vengono subito a creare profondi dubbi: ammesso che la singolarità sia fattibile, quanto è veramente auspicabile? E' evidente che una super-intelligenza non può essere tratta come una lavatrice. E' piuttosto improbabile che la si possa gestire o controllare dal momento che sarebbe per definizione più intelligente di noi. I casi sono sostanzialmente due: o si mostra benevola nei nostri confronti, oppure aggressiva o indifferente. Nel primo caso è plausibile attendersi per il genere umano quanto di più vicino possa esserci al concetto di paradiso in terra. Nel secondo caso invece l'estinzione di massa o il totale e completo asservimento diverrebbero di colpo scenari probabili sia per l'umanità sia per l'intera biosfera terrestre.
Date queste premesse è scontato che le opinioni sia a pro sia contro l'avvento di una Singolarità si sprecano. Non entrerò ulteriormente nel dettaglio, preferendo saltare immediatamente al dilemma successivo: ammesso che la Singolarità Tecnologica sia possibile, è evitabile? E se non lo fosse, quanto ci siamo distanti in termini di tempo?
Se non avete mai sentito parlare della Singolarità Tecnologica, forse vi stupirà sapere che i più, non solo la ritengono probabile (e forse inevitabile), ma anche abbastanza vicina a noi. L'arco temporale indicato tipicamente dai possibilisti varia dai 10 ai 30 anni circa. Dati gli evidenti vantaggi strategici in campo economico, militare, scientifico, medico, tecnologico e perfino umanitario che il controllo di una super-intelligenza comporterebbe, credo che la tentazione sia pressoché irresistibile. D’altra parte non si può neppure escludere la creazione accidentale di una super-intelligenza. Se ancora pensate che questo sia sola e semplice fantasia, considerate che i militari si sono già mossi per giungere a sviluppare non solo intelligenze artificiali evolute, ma anche vere e proprie super-intelligenze. Questo non lascia ben sperare visto la natura intrinsecamente aggressiva di quel ambiente.
C’è un altro importantissimo aspetto da considerare: come è ormai tristemente evidente, anche senza Singolarità Tecnologica, la probabilità di autodistruggerci non stà affatto calando con il passar del tempo: sovrappopolazione, cambiamenti climatici, esaurimento delle risorse primarie (energetiche, metallurgiche, idriche ed agricole), rischi pandemici (naturali ed artificiali), rischi esistenziali classici (come guerre nucleari o impatti con corpi celesti), innalzamento degli oceani, inquinamento e riduzione della biodiversità completamente fuori controllo, ecc... ecc... ecc...
Tenendo conto di ciò, la domanda che mi sorge è: possiamo farcela senza una Singolarità Tecnologica benevola? Lo slancio economico-militar-tecnologico e quello demografico forse ci hanno già fornito una spinta tale da travalicare il punto di non ritorno? Se, ad esempio, sapete cosa sono gli idrati di metano, potrete facilmente rendervi conto di come, sfortunatamente, questa non sia affatto una domanda astratta da ora di filosofia. Altrettanto vale se conoscete le conseguenze meno note del picco del petrolio (e dei picchi collaterali gas, uranio, oro, rame ecc...) o degli andamenti demografici possibili a livello mondiale o le possibili implicazioni virali del disboscamento incontrollato di zone una volta inaccessibili. Non siamo riusciti a gestire positivamente tecnologie semplici come la plastica, cosa accadrà quando nanotecnologie e biotecnologie saranno altrettanto facili e diffuse? Cosa conviene fare?

Considerando tutto, converrebbe accelerare al massimo il processo di sviluppo e maturazione di Internet per tentare consapevolmente una Singolarità Tecnologica benevola. Perchè? Perchè Internet ha potenzialità largamente inespresse. Perchè Internet è la più vasta comunità umana della storia. Perché è difficile da monopolizzare. Perchè Internet cresce e si evolve al passo con le nuove tecnologie. Perchè molti (me incluso) sono convinti che Internet sia un'occasione unica ed irrepetibile per la Pace e la cultura. Perchè Internet è l'unica "carta" in mano ai civili per sperare di togliere il primato ai militari ed ad eventuiali frange estremiste in queto campo. Per battere sul tempo tutti gli altri gravi rischi di cui si parlava e che crescono e si avvicinano man mano che trascorre il tempo. Per fare qualcosa che valga la pena d'essere fatto, farlo bene e farlo insieme: senza egoismi, senza protagonismi e senza i segreti tipici dei laboratori da “scienziato pazzo”. Inoltre il processo di “coltivazione” di Internet potrebbe rivelarsi estremamente divertente, stimolante e creativo. In una parola sorprendente in sé stesso, al di la che si riesca oppure no a dar vita ad una super-intelligenza.
Se poi la Singolarità Tecnologica dovesse rivelarsi solo un'altra tra le tante vane teorie sul futuro, quale sarebbe stato il male nel aver contribuito (tentando tutti insieme) ad aumentare la conoscenza e l'intelligenza dell'umanità nel suo complesso?

Un saluto a tutti dal Panda.

Nessun commento:

Posta un commento