Newsletter, Omaggi, Area acquisti e molto altro. Scopri la tua area riservata: Registrati Entra Scopri l'Area Riservata: Registrati Entra
Home / Articoli / Una breve esposizione relativa al Terzo Millennio

Una breve esposizione relativa al Terzo Millennio

di Anatoly Karlin - 12/02/2017

Fonte: Megachip

Risolvere il "problema intelligenza" è di fondamentale importanza e tutti gli altri problemi diventano banali.

Il problema è che tale questione è molto ardua ed è improbabile che le nostre facoltà mentali innate siano sufficienti. In aggiunta, poiché nell'avanzamento sulla scala dello sviluppo tecnologico (Karlin, 2015) i problemi tendono a diventare più ardui e non più facili, in uno scenario di "business as usual" senza un sostanziale aumento di intelligenza, avremo effettivamente solo una "finestra" di 100-200 anni per effettuare questo progresso, prima che i modelli globali di fertilità disgenica lo escludano del tutto per gran parte del prossimo millennio.
Per evitare un periodo di prolungata stagnazione tecnologica e scientifica, con i rischi di collasso che ne conseguono, la nostra "mente alveare" globale (o "noosfera")(1) dovrà come minimo rafforzare, e, preferibilmente, incrementare in modo sostenibile la propria intelligenza. L'obiettivo finale è creare (o diventare) una macchina, o una rete di macchine, che in modo ricorsivo aumentano la loro propria intelligenza - "l'ultima invenzione che l'uomo abbia mai avuto il bisogno di realizzare" Good, 1965).
Alla luce di questo ci sono principalmente cinque modi distinti in cui la civiltà umana (o post-umana) si potrebbe sviluppare nel prossimo millennio.
matrix-art
Tecno - singolarità diretta
Lo sviluppo dell'intelligenza artificiale generale (AGI), che a sua volta dovrebbe rapidamente inizializzare una super intelligenza, è stata definita da Nick Bostrom come "qualsiasi intelletto che superi notevolmente le prestazioni cognitive degli esseri umani in quasi tutti i domini di interesse" (Bostrom, 2014). Soprattutto, se si tratterà di un decollo "arduo", la super intelligenza diventerà probabilmente unica nel suo genere, un'entità che è un tutt'uno con l'egemonia globale (Bostrom, 2006).
Molti esperti prevedono che l'AGI potrebbe fare la propria comparsa entro la metà del 21° secolo (Kurzweil, 2005; Müller & Bostrom, 2016). Ciò si dovrebbe rapidamente tradurre in maniera automatica in una singolarità tecnologica, d'ora in poi denominata "tecno-singolarità", il cui valore utilitaristico per l'umanità dipenderà dal fatto se si riuscirà a risolvere il problema di allineamento all'Intelligenza Artificiale (cioè, se si riuscirà a capire come convincere i robot a non annientarci).
La tecno-singolarità avanzerà a poco a poco sull'umanità, e poi trasformerà assolutamente tutto in modo radicale, compresa la possibilità stessa di una previsione più significativa - che consisterà "nel gettare via tutte le regole precedenti, forse in un batter d'occhio, in una crescita esponenziale travolgente, al di là ogni speranza di controllo" (Vinge, 1993). Lo scenario della "tecno-singolarità diretta" è probabile se l'AGI risulterà essere relativamente agevole, così come credono il futurista Ray Kurzweil e il CEO di DeepMind Demis Hassabis.
L'età dell'Em
Lo sviluppo della Whole Brain Emulation (WBE) potrebbe accelerare la tecno-singolarità, se sarà relativamente agevole e se si svilupperà prima dell'AGI. Così come l'economista Robin Hanson sostiene nel suo libro The Age of Em, incalcolabili quintilioni di menti umane emulate, o "em", che funzionano migliaia di miliardi di volte più veloci rispetto alla wetware biologica(2), dovrebbero essere in grado di effettuare la transizione alla vera super intelligenza e alla tecno-singolarità nell'arco di qualche anno umano (Hanson, 2016) Ciò presuppone che la civiltà em non si autodistrugga e che, in ultima analisi, l'AGI si riveli un problema intrattabile. Una semplice simulazione con i metodi Monte Carlo(3) realizzata da Anders Sandberg suggerisce che la WBE potrebbe essere un target raggiunto entro il 2060 (Sandberg, 2014).
deus-ex-rbs
Deus Ex: Human Revolution
Bio-singolarità
Ancora non abbiamo affrontato in maniera esaustiva il nostro potenziale biologico e biomeccatronico per l'aumento dell'intelligenza. Il livello di complessità biologica è aumentato iperbolicamente dalla comparsa della vita sulla Terra Markov & Korotayev, 2007), quindi, anche se sia la WBE sia l'AGI risultino essere molto ardue, potrebbe essere ancora perfettamente possibile, per la civiltà umana, continuare a tirare avanti con ulteriori enormi aumenti di potenza cognitiva complessiva. Basta, forse, il rilancio della tecno-singolarità.
Ci sono molte possibilità di percorso verso la bio-singolarità.
Il più semplice è attraverso la demografia: il metodo comprovato e collaudato di crescita della popolazione (Korotaev & Khaltourina, 2006). Come sostengono i "tecnocornucopiani"(4) come Julian Simon, più persone equivalgono a più innovatori potenziali. Tuttavia, solo una piccola "frazione intelligente" può contribuire in modo significativo al progresso tecnologico e ai modelli globali di fertilità disgenica, i quali implicano che una quota di popolazione mondiale stia per declinare inesorabilmente, ora che l'effetto Flynn degli aumenti dei quozienti intellettivi ambientali si sta esaurendo in tutto il mondo, specialmente nelle nazioni ad alto quoziente d'intelligenza responsabili per la maggior parte, in primo luogo, del progresso tecnologico (Dutton, Van Der Linden, & Lynn, 2016). Nello scenario "business as usual" a lungo termine, questo si tradurrà in un'Idiocrazia incapace di ogni ulteriore progresso tecnologico, in una situazione di rischio permanente di un crollo malthusiano della popolazione. per il quale il quoziente di intelligenza medio dovrebbe scendere al di sotto del livello necessario per sostenere la civiltà tecnologica.
La fertilità disgenica, in quanto tale, dovrà essere contrastata da politiche eugeniche o da interventi tecnologici. Le prime o sono troppo lievi per fare una differenza fondamentale, o sono troppo coercitive per perorare seriamente la causa. Questo ci lascia con le soluzioni tecnologiche che a loro volta, in gran parte, rientrano in due comparti: la genomica e la biomeccatronica.
Il percorso più semplice, già all'apice di fattibilità tecnologica, è la selezione degli embrioni secondo il quoziente di intelligenza. Da ciò si otterrà una deviazione standard per ogni generazione, e un aumento finale di ben 300 punti di quoziente di intelligenza rispetto al livello base, una volta che tutti gli alleli che influenzano il quoziente intellettivo saranno stati scoperti e ottimizzati (Hsu, 2014; Shulman & Bostrom, 2014). Ciò è forse una prospettiva troppo ottimista, in quanto si afferma che  gli effetti rimarranno strettamente additivi e non si incorrerà in rendimenti decrescenti.
Perfino in questo modo, un mondo con mille o un milione di John von Neumann che corrono di qua e di là, sarà più civile e di gran lunga più prospero, e gli ordini di grandezza saranno più dinamici dal punto di vista tecnologico, rispetto a quelli che abbiamo oggi (basta confrontare le differenze di civiltà, di prosperità e di coesione sociale tra le regioni di uno stesso Paese, separate da una mera incompleta deviazione standard del quoziente intellettivo medio, come il caso del Massachussetts e del West Virginia). La possibilità della comparsa di una civiltà iper intelligente per la risoluzione del problema WBE e/o AGI sarà proporzionalmente molto elevata.
Il problema è che per raggiungere la terra promessa ci vorrà circa una dozzina di generazioni, cioè almeno 200-300 anni. Vogliamo davvero aspettare così a lungo? Non ne abbiamo bisogno. Una volta che le tecnologie come CRISPR / Cas9(5) giungeranno a pieno sviluppo, potremo accelerare drasticamente il processo e ottenere la stessa cosa mediante la modifica diretta del gene. Tutto questo, naturalmente, presuppone che gli Stati più potenti del mondo, in concerto, non si coordinino per dare un giro di vite vigoroso in merito alle nuove tecnologie.
Anche così, si rimarrà ancora "limitati" dalla biologia umana. Per esempio, le dimensioni dell'utero e il carico metabolico costituiscono un'interferenza per le dimensioni del cervello, e la specificità del nostro substrato neurale pone un tetto massimo al potenziale intellettuale umano "geneticamente corretto".
Ci sono quattro modi possibili per andare oltre la biologia, presentati qui di seguito dal "più realistico" al "più fantascientifico":
Neurofarmacologia: I farmaci nootropi(6) già esistono, ma non sono causa di incremento di quoziente intellettivo per una qualsiasi quantità significativa, ed è improbabile che lo facciano in futuro (Bostrom, 2014).
Biomeccatronica: Lo sviluppo di impianti neurali per aumentare la cognizione umana oltre il suo potenziale biologico di picco. Le prime start-up, basate per il momento su un trattamento rispetto al potenziamento, stanno cominciando ad apparire, ad esempio Kernel, in cui il futurista Randal Koene è scienziato capo. Questo approccio "cyborg" promette un'integrazione più uniforme, e probabilmente più sicura, con l'Em e/o macchine intelligenti, ogni qualvolta possano fare la loro comparsa - questo è il motivo per cui Elon Musk è isostenitore di questo approccio. Tuttavia, c'è una buona probabilità che interfacce significative cervello-macchina saranno molto difficili da implementare (Bostrom, 2014).
Nanotecnologia: I nanorobot potrebbero potenzialmente ottimizzare percorsi neurali, o anche creare le proprie reti neurali sulla base delle idee di un FOGLET(7).
Bio-singolarità diretta: se la WBE e/o la super intelligenza si riveleranno molto ardue o intrattabili, o presenteranno problemi "minori" come la mancanza di soluzioni rigorose per la questione dell'allineamento all'Intelligenza Artificiale o la perdita permanente di esperienza cosciente (Johnson, 2016), allora si potrà fare il tentativo di una bio-singolarità diretta - per esempio, Nick Bostrom suggerisce lo sviluppo di geni di sintesi e molte altre "possibilità esotiche", come ampi recipienti pieni di tessuto corticale strutturato in maniera complessa o animali transgenici "nobilitati", in particolare elefanti o balene in grado di sostenere cervelli molto grandi (Bostrom, 2014). Il risultato ultimo di una vera bio-singolarità potrebbe essere un "oggetto unico nel suo genere dal punto di vista ecotecnico", cioè qualcosa di simile a Solaris di Stanisław Lem, un pianeta dominato da un oceano senziente che copre il globo.
Limitata dalla velocità delle reazioni chimiche neuronali, è certo affermare che la bio-singolarità sarà un affare molto più lento rispetto all'avvento dell'età dell'Em o dell'esplosione della super-intelligenza, per non parlare della tecno-singolarità che probabilmente presto sarà conseguente a entrambi questi due eventi. Tuttavia, la civiltà umana in questo scenario potrebbe ancora, alla fine, raggiungere la massa critica di potenza cognitiva necessaria a risolvere la WBE o l'AGI, dando così inizio alla reazione a catena che porta alla tecno-singolarità.
great-filter
Eschaton(8)
Nick Bostrom ha definito in questo modo il rischio esistenziale: "Il caso in cui un risultato avverso distrugga la vita intelligente che ha avuto origine sulla Terra o ne limiti in modo permanente e drastico il suo potenziale(Bostrom, 2002).
Possiamo dividere i rischi esistenziali in quattro raggruppamenti principali: geoplanetario, antropico, tecnologico e filosofico.
Nell'arco di tempo di una data decade, una raffica di raggi gamma o anche un grande asteroide ci potrebbe estinguere nella nostra culla terrena. Tuttavia, il rischio di fondo è sia costante che estremamente basso, perciò sarebbe una sfortuna cosmica, il caso che una Götterdämmerung geoplanetaria(9) ci annienti proprio mentre stiamo per entrare nell'era post-umana.
Ci sono tre grandi fonti di rischio "antropico" esistenziale: la guerra nucleare, i cambiamenti climatici e l'esaurimento delle fonti energetiche ad alto EROEI(10).
I timori concernenti l'annientamento atomico sono comprensibili, ma anche uno scambio termonucleare su vasta scala tra Russia e Stati Uniti dimostrerà la  capacità di sopravvivenza, e non si tradurrà nel crollo della civiltà industriale, nello stile del romanzo di fantascienza post-apocalittico "Un cantico per Leibowitz" o della serie di videogiochi post-apocalittica "Fallout", per non parlare dell'estinzione umana (Kahn, 1960; Kearny, 1979). Ciò era vero durante la Guerra Fredda ed è doppiamente vero oggigiorno, quando gli stock di armi nucleari sono di gran lunga inferiori in quantità. In verità, una certa piccola percentuale di popolazione mondiale morirà, e la maggioranza del capitale sociale nelle nazioni in guerra sarà distrutto, ma come avrebbe detto Herman Kahn, questo è un esito tragico, ma comunque un risultato distinguibile rispetto a un vero e proprio "rischio esistenziale".
Più o meno lo stesso si può dire dei cambiamenti climatici di origine antropogenica. Mentre farebbero, probabilmente, più male che bene almeno nel medio termine (Stager, 2011) perfino i peggiori risultati, come il collasso della struttura del clatrato(11), molto probabilmente non si tradurranno nelle  visioni apocalittiche di James Lovelock di "coppie per la riproduzione" che disperatamente tirano avanti con fatica per la sopravvivenza nell'Artico. Il solo vero risultato ultimo sarebbe un effetto serra fuori controllo che trasforma la Terra in Venere, ma nessun posto sulla superficie del pianeta ha veramente abbastanza risorse di carbone affinché ciò avvenga.
Per quanto riguarda le forniture di energia a livello mondiale, mentre la fine dei combustibili fossili ad alta densità potrebbe in qualche modo ridurre il tenore di vita rispetto a ciò che avrebbero altrimenti garantito, non vi è alcuna prova che ciò sarebbe la causa del declino economico, per non parlare della  regressione tecnologica che ci farebbe ritornare alle condizioni della Gola di Olduvai(12), come hanno sostenuto alcuni tra i più allarmisti che vedono profilarsi un destino tragico. Abbiamo ancora risorse! In definitiva, la cultura materiale anche di un Paese affamato di energia come Cuba, è molto positiva se posta a confronto a quella del 95% di tutti gli esseri umani che abbiano mai vissuto. Inoltre, ci sono ancora tanto di riserve di carbone abbandonate da secoli sul pianeta, e il potere dell'energia nucleare e solare è stato sfruttato solo per una piccola frazione del loro pieno potenziale.
Di gran lunga il più grande rischio tecnologico è la malevola AGI, tanto che tutta la ricerca viene allestita in modo tale che il MIRI (13) si è precipitato a lavorare in questo ambito. Tuttavia ciò è così strettamente collegato allo scenario della tecno-singolarità tanto che qui mi asterrò da ulteriori commenti.
Questo lascia per lo più solo i rischi esistenziali, "filosofici" o logicamente derivati. Per esempio, per quanto riguarda la simulazione al computer, siamo in dirittura di arrivo ((Bostrom, 2003)  - forse perché non ci suscitano abbastanza interesse (se falliamo il raggiungimento della tecno-singolarità), o per mancanza di hardware per simulare un'esplosione di intelligenza (nel caso in cui la realizzeremo). Un'altra possibilità inquietante è implicita nel silenzio premonitorio che ci aleggia intorno - così come ha chiesto Enrico Fermi, "Dove sono tutti?" Forse siamo veramente soli. O forse le civiltà aliene della post-singolarità rimangono in silenzio per una buona ragione.
Abbiamo cominciato a trasmettere allegramente la nostra presenza al vuoto più di un secolo fa, quindi se c'è davvero una civiltà "super predatrice" che veglia su tutta la galassia, pronta a precipitarsi al primo segno di un potenziale rivale (ad esempio le limitate risorse di calcolo della simulazione), allora il nostro destino potrebbe essere già da tempo scritto nelle stelle. Tuttavia, a meno che non abbia capito come sovvertire le leggi della fisica, la reazione sarà limitata dalla velocità della luce. Come tale, la questione assume una fondamentale importanza, se a noi ci vorrà mezzo secolo o un millennio per risolvere il problema intelligenza - e, per estensione, tutti gli altri problemi, tra cui la colonizzazione dello spazio!
manyukhin-tower-of-sin
Vladimir Manyukhin, Tower of Sin.
L'età dell'industrialismo malthusiano (o "business as usual")
Il 21° secolo si rivelerà essere una delusione a tutti gli effetti. Non ci uniremo con il Dio Macchina, né ritorneremo di nuovo nella Gola di Olduvai, né si passerà incidentalmente per il futuro distopico di Fury Road(14). Invece, si arriverà a sperimentare la vera tortura di vedere realizzate con successo le principali previsioni convenzionali di tutti i noiosi economisti incravattati, uomini d'affari, e vari altri burocrati vestiti in beige.
La modifica genetica umana è vietata per decreto dai governi in tutto il mondo per "proteggere la dignità umana" nei Paesi religiosi, e per "prevenire la disuguaglianza" in quelli progressisti dal punto di vista religioso. L'1%, prevedibilmente, non rispetterà queste regole secondo il proprio volere, migliorando la progenie, e mantenendo il resto della biomassa umana verso il basso dove crede sia la sua appartenenza, ma le élite non hanno il peso demografico per compensare il crollo a picco del quoziente intellettivo medio, dato che la disgenica supera decisamente l'effetto Flynn
Scopriamo che i fondi destinati a Kurzweil sono una bugia. La legge di Moore è in stallo e l'attuale euforia riguardante l'apprendimento profondo si trasforma in un declino permanente dell'intelligenza artificiale. Con Robin Hanson si spegne un uomo deluso, tuttavia non prima di essersi sottoposto al trattamento di congelamento criogenico, nella speranza che sarebbe stato rivitalizzato come em. Ma Alcor(15) fallirà nel 2145, e quando si scoprirà che qualcuno si è appropriato indebitamente dei fondi accantonati per una simile contingenza, non si riuscirà a trovare qualcuno che possa pagare per il mantenimento di quelle strane mummie di ghiaccio. Esse saranno svogliatamente gettate via e qualsiasi coscienza residuale, che potrebbero ancora possedere nei loro involucri congelati, colerà e si dissolverà nella sporcizia insieme alla loro linfa vitale che si scongela. Si costruirà, sulle loro ossa e intorno a ciò che oggi è una sede estremamente affollata, un grande centro commerciale nella megalopoli di Phoenix.
Per via del fatto che le vecchie preoccupazioni riguardanti le popolazioni ingrigite e i sussidi sono ormai storia antica. Per il fatto che le preferenze di fertilità, come tutti gli aspetti della personalità, sono ereditabili - e quindi ultra competitive in un mondo dove sono stati allentati i vecchi vincoli malthusiani - i "riproduttori" hanno da tempo superato gli "allevati" come percentuale di popolazione, e l'umanità è ora nel bel mezzo di un baby boom epocale che durerà secoli. Quanto la popolazione umana che è aumentata di dieci volte, da 1 miliardo nel 1800 a 10 miliardi entro il 2100, così incrementerà ancora di un altro ordine di grandezza nei successivi due o tre secoli. Ma questa espansione demografica è altamente disgenica, così il quoziente intellettivo medio globale precipiterà secondo una deviazione standard e la tecnologia ristagnerà. Prima o poi, verso la metà del millennio, la popolazione si avvicinerà a 100 miliardi di anime e salirà oltre la capacità di carico dell'economia industriale globale.
Poi le cose andranno di male in peggio.
Ma, come si suol dire, ogni problema contiene in sé il seme della propria soluzione. Il pensiero GNON(16) stabilisce per la vagliatura della popolazione l'eliminazione dei malati, degli stupidi e degli spendaccioni. Come osserva il filosofo neo reazionario Nick Land, che segue in modo sempre crescente il pensiero di Lovecraft, "Non c'è ancora un meccanismo esistente o perfino rigorosamente immaginabile, che possa sostenere in maniera rigorosa un solo briciolo di valore morale raggiunto al di fuori delle fucine del Diavolo."
Nel severo nuovo mondo dell'industrialismo malthusiano, l'Idiocrazia inizia a preparare la strada allo scenario delineato nel libroA Farewell to Alms, ai modelli eugenetici di fertilità che sostenevano profitti del quoziente intellettivo nella fase iniziale della Gran Bretagna moderna e hanno aperto la strada alla rivoluzione industriale. Qualche secolo in più, dominato dai più intelligenti e laboriosi, avrà come conseguenza più nipoti superstiti e ritorneremo di nuovo al punto in cui ci troviamo oggi, con l'esperienza per realizzare un secondo tentativo per la risoluzione del problema intelligenza, ma in grado di attingere da una popolazione di gran lunga più forte per il compito.
Partendo dal presupposto che una flotta alveare basata sulla tirannide non avesse inghiottito la Terra nel millennio che intercorre .
2061su-longing-for-home
2061.suLonging for Home
I sentieri che si biforcano del Terzo Millennio
Come reazione al giudizio negativo che lui stava sprecando il suo tempo a idealizzare uno scenario improbabile, Robin Hanson ha sottolineato che anche se ci fosse solo l'1% di possibilità per l'avvento dell'Età dell'Em, lo studio ne è valsa la pena, pur considerando l'enorme quantità di potenziali coscienze future che pagheranno il fio.
Anche se posso immaginare che alcuni lettori considerano alcuni di questi scenari come meno probabili di altri, penso che sia giusto dire che tutti sono almeno minimamente plausibili, e che la maggior parte delle persone assegnerebbe anche una probabilità più grande dell'1% alla maggioranza di essi. Come tali, essi sono oggetti legittimi di seria considerazione.
La mia valutazione di probabilità è la seguente:
(1) (a), Tecno-singolarità diretta - 25%, se Kurzweil / MIRI / DeepMind sono nel giusto, con un picco di probabilità intorno al 2045, e quasi certamente da implementare per mezzo delle reti neurali (Lin & Tegmark, 2016).
(2) L'Età dell'Em - <1 anni="" biologici="" che="" dal="" dalla="" degli="" di="" funzionali="" grado="" in="" loro="" microchip="" modelli="" momento="" nbsp="" non="" organismi="" ottenere="" parlare="" partendo="" per="" perfino="" quarantina="" scansione="" siamo="" strong="" style="border: 0px none; box-sizing: border-box; list-style: none; margin: 0px; outline: 0px; padding: 0px;" una="" vecchi="">( Jonas & Kording, 2016)

.

(3) (a) Passaggio dalla Bio-singolarità alla Tecno-singolarità - 50%, a partire dalla rivoluzione della genomica è stato avviato il passaggio ed è improbabile che i governi lo vogliano, per non parlare del loro successo nell'occultarlo in maniera rigorosa. E se l'AGI si rivelerà più ardua di quanto gli ottimisti dicono, e ci vorrà più di metà del secolo per lo sviluppo, allora è una scommessa sicura che gli esseri umani con quoziente intellettivo aumentato giocheranno un ruolo critico nello sviluppo finale. Stabilirei il picco di probabilità per far derivare la tecno-singolarità dalla bio-singolarità intorno al 2100.
(3) (b) Bio-singolarità diretta - 5%, se decidiamo che procedere con l'AGI è troppo rischioso, o che quella coscienza abbia in sé un valore intrinseco fondamentale, ed è possibile solo con un substrato biologico.
(4) Eschaton - 10%, di cui: (a) Rischi filosofico-esistenziali - 5%; (b) L'AGI malevola - 1%; (c) Altri rischi esistenziali, principalmente quelli tecnologici - 4%.
(5) L'Età dell'industrialismo Malthusiano - 10%, con una pari probabilità se riusciremo a rilanciare la tecno-singolarità per la seconda volta.
C'è una grande quantità di letteratura su quattro di questi cinque scenari. Il libro più famoso sulla tecno-singolarità è di Ray Kurzweil, The Singularity is Near, anche se si potrebbe avere a che fare con il classico articolo di Vernor Vinge, The Coming Technological SingularityThe Age of Em di Robin Hanson è il libro sull'argomento. Idee inerenti alla bio-singolarità sono già addentro il nostro orizzonte tecnologico - vale la pena di seguire Stephen Hsu su questo argomento, anche se l'ambito della biomeccatronica, per ora, rimane più fantascienza che scienza (cenno obbligatorio al franchise dei videogiochi Deus Ex). La letteratura in voga sui rischi esistenziali di tutti i tipi è vasta, il libro  Superintelligence di Nick Bostrom è il lavoro che sta alla base dei rischi inerenti all'AGI. Vale anche la pena leggere i suoi numerosi articoli sui rischi filosofico-esistenziali.
Paradossalmente, con riferimento allo scenario "business as usual" si presenta la lacuna di gran lunga più grande. È come se i pensatori futuristi di tutto il mondo abbiano impiegato risorse negli scenari più esotici e "interessanti" (ad esempio la super intelligenza, l'EM, il collasso socio-economico, ecc), e abbiano trascurato di considerare cosa accadrà se prendiamo per buone tutte le proiezioni economiche standard e demografiche per questo secolo, se applichiamo la nostra comprensione di economia, psicometria, tecnologia e psicologia evolutiva in tali contesti, e li estendiamo alle loro conclusioni logiche.
Ciò che risulta dall'Età del Malthusianesimo Industriale non è solo qualcosa che è più facile immaginare, rispetto ai molti altri scenari, e per estensione è più agevole per le persone moderne mettersi in relazione, ma è anche qualcosa che è veramente interessante di per sé. È inoltre molto importante capire bene. Ecco perché non è affatto un "buon scenario", anche se è forse il più "naturale", dal momento che alla fine comporterà quantità inimmaginabili di tribolazione per innumerevoli miliardi di persone nel corso di alcuni secoli a venire, quando arriverà il momento di far quadrare l'equazione malthusiana. Dovremo anche trascorrere un lungo periodo di tempo sotto un elevato livello di rischio filosofico-esistenziale. Questo sarebbe il prezzo che dovremo pagare per le normative statali che bloccano il percorso odierno verso la bio-singolarità.
Fonte: http://www.unz.com/akarlin/short-history-of-3rd-millennium/
Tratto da: http://comedonchisciotte.org/una-breve-esposizione-relativa-al-terzo-millennio/.
Traduzione per comedonchisciotte a cura di NICKAL88.
Note aggiunte dal traduttore
  • Noosfera
 Il termine noosfera indica la "