luni, 22 februarie 2016

Stephen Hawking descrie patru scenarii pentru SFARSITUL LUMII!

Ioana Ivan



Omenii isi sapa singura groapa si isi poate grabi sfarsitul prin diferite metode, este de parare renumitul fizician britanic Stephen Hawking. "Chiar daca eventualitatea unei catastrofe de amploare planetara este destul de ridicat in fiecare an luat in parte, cu timpul acest risc se amplifica, iar peste mii sau zeci de ani el va deveni, practic, inevitabil", considera profesorul.



Stephen Hawking


Stephen Hawking, omul care studiaza gaurile negre din Univers si care a demarat impreuna cu un om de afaceri, un proiect pentru cautarea vietii extraterestre, enumera cel putin patru scenarii pentru sfarsitul lumii.



1. Inteligenta artificiala


In opinia omului de stiinta, tentativele de a crea inteligenta artificiala ameninta insasi existenta omului. "Ar putea insemna sfarsitul rasei umane", declara Hawking, intr-un interviu acordat BBC in 2014. Desigur, spune el, formele primite de inteligenta artificiala realizate sunt utile, dar s-ar putea ajunge la masinarii mai destepte decat omul.

"Va incepe sase dezvolte de sine statator si sa se perfectionezeu cu o viteza tot mai mare", crede Hawking. "Iar oamenii, limitati la viteza evolutiei biologice, nu vor putea rezista cursei si vor fi inlocuiti".



2. Razboiul nuclear


Daca nu ne vor distruge masinile inteligente create de noi, ne putem distruge si altfel, spune fizicianul. "Unul dintre marile neajunsuri ale omenii, pe care mi-as dori sa il corectez, este agresiunea. Pentru omul pesterilor, acest lucru avea avantajele lui, agresiunea ajuntandu-l sa-si faca rost de hrana, sa cucereasca teritorii sau un partener pentru perpetuarea speciei, dar astazi aceasta agresiune a ajuns sa ne ameninte pe toti", explica cercetatorul.

Noile arme de distrugere in masa sunt capabile sa nimiceasca viata pe pamant, iar proliferarea lor constituie o probleme globala. "Un mare conflict nuclear ar fi sfarsitul lumii si, poate, chiar a omenirii", afirma profesorul Hawking.



3. Virusii creati de ingineria genetica


Dar arma nucleara nu este, se pare, cea mai ingrozitoare pentru autodistrugerea omenirii, subliniaza fizicianul britanic. "Pe termen lung, tot mai mult ma nelinisteste biologia. Pentru fabricarea unei arme atomice este nevoie de intreprinderi mari, in timp ce ingineria genetica incapa si intr-un laborator de proportii reduse. Nu poti monitoriza toate laboratoarele. De aceea, exista pericolul ca, intamplator sau cu buna stiinta, sa cream un virus care sa ne ucida", avertiza profesorul Hawking intr-un interivu acordat Daily Telegraph in 2001.


"Nu cred ca omenii va supravietui urmatoruli mileniu, daca nu ne vom deplasa in spatiul cosmic. Pe aceasta planeta se pot produce prea multe intamplari nefericite, capabile sa distruga viata", a adaugat cercetatorul.



4. Incalzirea globala


"Una dintre cele mai serioase consecinte ale activitatii omului este incalzirea globala, determinata de cresterea in atmosfera a dioxidului de carbon prin arderea diferitelor tipuri de combustibili. Pericolul consta in faptul ca temperaturile prea ridicate sunt daunatoare", afirma omul de stiinta britanic.

"Nu stim daca vom putea opri sau nu acest proces al incalzirii globale, dar in cel mai rau dintre cazuri, Terra ar putea avea soarta planetei Venus, unde la suprafata temperatura atinge 250 de grade, iar ploile sunt acide. In aceste conditii, omul nu va supravietui", a concluzionat Hawking.




















Niciun comentariu:

Trimiteți un comentariu