Ecosistema
Un ecosistema è un interazione tra esseri viventi
e non viventi; tra flussi di energia e catene alimentari. La parola ecosistema
venne introdotta nel 1935 dal botanico Arthur Tansley. Ogni ecosistema si trova
dentro altri ecosistemi: ad esempio il sottobosco si trova dentro il bosco, il
quale si trova all’interno di un territorio più grande, e così via. Ogni
porzione di biosfera, al cui interno si trovino elementi biotici e abiotici, e
in cui ci siano interazioni, è un ecosistema. Potrei scrivere un libro
contenente solo esempi di ecosistemi, ma non mi basterebbero milioni di pagine
per definirne tutti i tipi. Dunque proverò a proporvi un semplice esempio,
lasciando comunque a voi l’onore di astrarre la vostra mente, per applicare il
concetto di ecosistema a svariate situazioni. Immaginatevi un albero. Sopra di
esso ci possono essere nidi di uccelli, scoiattoli, vermi e moltissime altre
specie. Inoltre ci possono essere funghi, batteri, muffe e quant’altro. Ma il
fatto che sopra la pianta ci siano delle specie animali e vegetali, non basta
affinché essa possa essere considerato un ecosistema; ci devono essere anche
delle connessioni tra gli elementi, e qui subentrano le catene alimentari. Ci
saranno dunque erbivori, che si nutriranno delle foglie dell’albero, e
predatori che si mangeranno gli erbivori. Poi ancora predatori che si
papperanno altri predatori, che comunque prima o poi moriranno, e verranno
decomposti dai decompositori. Infine la materia biotica decomposta verrà di
nuovo assorbita dall’albero, e l’energia tornerà in circolo. A questo punto
l’albero può essere considerato un ecosistema, in quanto contiene un numero
finito, ma in evoluzione, di elementi che interagiscono tra loro. Ma nonostante
questa caratteristica sia sufficiente per dare una definizione ad un
ecosistema, non è l’unica proprietà dello stesso. Gli ecosistemi, infatti,
presentano la peculiarità di tendere a raggiungere un equilibrio, nel senso che
tendono a equilibrare l’ingresso di flussi energetici e materiali, in virtù
delle necessità. Ciò non significa che l’equilibrio venga raggiunto, altrimenti
il sistema non avrebbe più la capacità di evolversi e rimarrebbe stabile; il
che significherebbe fine del sistema. Quindi l’altra caratteristica dei sistemi
complessi, come gli ecosistemi, è di trovarsi sempre lontani dall’equilibrio.
Tutto questo è rappresentabile sempre attraverso l’esempio della catena
alimentare: così come sono importanti le
prede per dare cibo ai predatori, sono importanti i predatori per mantenere il
giusto numero di prede. All'interno dell'ecosistema, quindi, vi è un evidente
esempio di come, senza le interazioni, il sistema non possa funzionare. Alla
base della catena alimentare troviamo i produttori, che sono coloro che si
producono da soli le riserve alimentari attraverso l'organizzazione dei
composti chimici del terreno (vegetali). Al secondo posto della catena
alimentare ci sono i consumatori di primo ordine, ovvero coloro che si cibano
dei produttori (erbivori). Al terzo posto ci sono i consumatori di secondo
ordine, ovvero coloro che si cibano dei consumatori di primo ordine (carnivori
che si cibano di erbivori). Infine ci sono i consumatori di terzo ordine,
ovvero coloro che si cibano dei consumatori di secondo ordine (carnivori che
mangiano carnivori). La cosa interessante è che via via che la catena
alimentare fa il suo corso, l'energia iniziale del sistema, ovvero quella
prodotta e consumata dai produttori, va sempre diminuendo durante il percorso.
I consumatori di terzo ordine non potrebbero dunque nutrirsi di produttori,
poiché l’energia non potrebbe trasferirsi uniformemente nella catena. Per
questo sono necessari i consumatori primari e secondari, per distribuire
nell'intero ecosistema la giusta quantità di energia. Però, a questo punto, una
domanda sorge spontanea: senza i consumatori di terzo ordine l'intero
ecosistema potrebbe comunque continuare senza problemi? La risposta è che senza
questi predatori si formerebbero degli squilibri; quindi il numero di
consumatori di secondo ordine aumenterebbe a dismisura e di conseguenza
diminuirebbero i consumatori di primo ordine, innescando una reazione a catena.
Naturalmente, in quanto sistema complesso, l'ecosistema, con i tempo
ritroverebbe la sua tendenza all’equilibrio, ma affinché la natura faccia il
suo corso, qualsiasi sia l'epoca storica, le interazioni sono fondamentali, e
il cerchio della vita rimane comunque una certezza.
Teoria
generale dei sistemi
Negli anni quaranta, Bertalanffy, animato da una
battaglia scientifica, dette vita alla teoria generale dei sistemi. In quel
periodo vi era un forte controversia tra fisici e biologi. Il problema derivava
da una legge fisica: la seconda legge della termodinamica. Secondo tale legge
il disordine all’interno di un sistema è sempre in aumento. Un esempio classico
per comprendere il concetto di disordine è visualizzare un bicchiere che casa
da un tavolo; il risultato sarà che il sistema ordinato bicchiere, si ritroverà
in un sistema disordinato, bicchiere rotto. Ma vediamo di preciso cosa dice la
seconda legge della termodinamica: “In un sistema chiuso l’entropia è sempre in
aumento”. L’entropia è la misura del disordine all’interno di un sistema, e
questa legge impone che dentro un sistema chiuso il disordine sia in aumento.
La visione diametralmente opposta tra biologi e fisici derivava da fatto, che
secondo i biologi gli esseri viventi sono strutture ordinate derivate dal
disordine, mentre per i fisici ciò non era possibile. Quindi, secondo i
biologi, la freccia della termodinamica, che punta chiaramente nella direzione
della freccia del tempo, nel caso della vita, veniva in qualche modo violata. A
risolvere la controversia fu Bertalanffy, il quale introdusse il concetto di
sistema aperto. Secondo lui, infatti, all’interno di un sistema aperto si può
creare ordine dal disordine. Ma cos’è un sistema aperto? È semplicemente un
sistema che può avere scambi con l’esterno. Un esempio lampante siamo noi:
infatti mangiamo, beviamo, evacuiamo etc. Quindi la seconda legge della
termodinamica permetterebbe ad un sistema aperto di creare ordine dal
disordine, purché il l’energia totale prodotta per creare l’ordine,
contribuisca ad aumentare il disordine totale prodotto. Attraverso questa
deduzione Bertalanffy spianò la strada per la produzione di altri tipi di
sistemi, ognuno dalle proprie proprietà.
Sistemi con la capacità di auto-organizzazione
I
sistemi complessi presentano una particolarità: essi sono dotati della capacità
di auto-organizzazione. Tale proprietà rende il sistema sempre più complesso
nel tempo. È una capacità volta a migliorare il sistema stesso, ed è intrinseca
all’interno del sistema. L’auto-organizzazione è una capacità in grado di
creare ordine dal disordine, pur rimanendo in accordo con il secondo principio
della termodinamica. I sistemi complessi, quindi, hanno la capacità di far
crescer l’ordine al proprio interno, senza violare tale principio, e ciò
avviene in virtù del fatto che per ordinarsi, il sistema, utilizza una certa
quantità di energia tale, da essere maggiore del suo ordine interno. Il
concetto di auto-organizzazione fu lanciato in seguito ad un articolo scritto
da Warren McCulloch e Walter Pitts. I due scienziati introdussero l’idea che i
neuroni fossero rappresentati da elementi a commutazione binaria (potevano
essere o accesi o spenti). Le connessioni fra gli elementi fanno si che
l’attività di ciascun elemento sia determinata dall’attività di un elemento
precedente, a seconda di una qualche regola di commutazione. Negli anni
cinquanta furono costruiti modelli con lampadine vere e proprie per osservare
quello che sarebbe successo. Inizialmente veniva definito uno schema
disordinato di lampadine accese o spente, e veniva definita una qualche regola
di rapporti. Ad esempio, una lampadina spenta che si trovava accanto a tre
lampadine accese doveva accendersi; mentre una lampadina accesa che si trovava
tra due spente doveva spengersi. In questo modo, con grande stupore dei
ricercatori, le lampadine cominciarono ad accendersi e spengersi secondo schemi
sempre più ordinati. Addirittura si configurarono cicli perpetui. Quindi
nonostante il sistema fosse stato impostato con un disordine iniziale, con il
tempo la sua configurazione andava verso l’ordine. Nacque così il concetto di auto-organizzazione.
Retroazione
I
sistemi complessi sono sistemi che hanno una capacità particolare che si chiama
retroazione o feedback. Si consideri un cerchio con diversi elementi. Ogni
elemento modifica il comportamento dell’elemento successivo, così che il primo
elemento influirà anche sull’ultimo. A questo punto avviene
l’auto-regolazione: l’effetto iniziale
viene modificato ad ogni ciclo, cosicché il sistema tende ad oscillare intorno
ad una condizione di equilibrio. Pensate ad un timoniere. Quando il vento fa
cambiare la rotta all’imbarcazione, il timoniere deve modificare la propria
rotta cercando il più possibile di tornare su quella stabilita. Naturalmente
non potrà avere una precisione millimetrica e la direzione della barca si
scosterà di poco fuori rotta. Cosicché il timoniere dovrà rimodificare la rotta
e ricercare la giusta direzione. Queste modifiche dovranno essere effettuate
più volte cercando di rimanere più stabile possibile. Ecco la retroazione
comporta proprio questo: le modifiche sull’ingresso delle reti energetico -
informative, comportano un’oscillazione del sistema rispetto al suo equilibrio.
Questa tendenza dei sistemi complessi di raggiungere un livello di stabilità
viene definita omeostasi.
La teoria della complessità
La
teoria della complessità studia i sistemi complessi con la capacità di
auto-organizzazione, e quindi il numero di elementi e di interazioni che fanno
si che un sistema riesca ad evolversi e organizzarsi indipendentemente. Questi
sistemi hanno diverse proprietà: la prima è la presenza al loro interno di reti
energetico-informative, attraverso cui l’informazione e l’energia si
trasmettono per ipotetiche vie. Prendiamo ancora come esempio la catena
alimentare: gli erbivori mangiano i vegetali, quindi l’energia immagazzinata
dal produttore passa al predatore. Poi i predatori di secondo ordine mangiano
gli erbivori, e quindi l’energia che aveva iniziato il suo corso all’interno
dei vegetali, passa poi agli erbivori e successivamente ai predatori di secondo
ordine. Tutto questo avviene fino a che l’energia viene passata all’ultimo
anello della catena: i produttori di
terzo ordine; i quali non vengono mangiati da nessuno, ma che al momento della
loro morte vengono decomposti dai decompositori, permettendo all’energia di tornare
nuovamente in circolo. La seconda proprietà dei sistemi complessi è il
carattere di adattività con l’ambiente. Questa proprietà consente di avere
scambi con l’esterno del sistema (ambiente) e quindi di regolare le funzioni
interne a seconda della necessità o meno di energia. La terza proprietà dei
sistemi complessi è l’assenza di un elemento principale che controlla il
sistema. Nella natura non esistono capi di governo che decidono per gli altri,
ogni elemento ha la sua imprescindibile importanza. La quarta proprietà dei
sistemi complessi è l’equilibrio dinamico in cui si trova il sistema. Infatti i
sistemi capaci di auto-organizzazione non sono statici; molti cambiamenti
avvengono al loro interno, in seguito a molte cause (come variazioni nell’ambiente
esterno). La conseguenza di questa
dinamicità è quella di una retroazione, ovvero la capacità di modificare
l’entrata o l’uscita dei flussi energetici tale, che il sistema resta in
equilibrio dinamico. La quinta proprietà dei sistemi complessi è quella di
auto-organizzazione, ovvero la tendenza a raggiungere una condizione statica
irraggiungibile. La sesta, ultima, ma non meno importante, proprietà dei
sistemi complessi è quella di presentare al loro interno la comparsa di aspetti
notevoli o emergenti. Attraverso meccanismi di retroazione il sistema è capace
di presentare aspetti che non potevano essere determinati precedentemente alla
loro creazione. All’interno dei sistemi complessi, quindi, possono apparire
aspetti del tutto inattesi e non necessari, come lo sviluppo della socialità,
del pensiero, etc. Ciò è importante poiché queste caratteristiche non sono
fondamentali all’interno del sistema; non si ritrovano nelle strutture e nelle
funzioni interne del sistema, sono come create da esso.
Teoria del caos
“Il
battito di ali di una farfalla in Brasile può scatenare un tornado in Texas?”
così era intitolato il seminario tenuto da Edward Lorenz, alla American
Association for the Advancement of Science. Si dice che il titolo fu inventato da Philips Merilees (meteorologo e
ordinatore della sessione di Lorenz), in quanto Lorenz non riusciva ad
inventarsene uno adatto. Ma l’origine di questa storica frase ha origini ancora
addietro, quando un meteorologo, si narra, fece un commento sprezzante sulla
teoria del caos, affermando che se la teoria fosse risultata giusta, “un
battito d’ala di gabbiano avrebbe potuto cambiare per sempre il corso del
clima”. Al giorno d’oggi nel web, e nei libri, girano molte rivisitazioni di
questa frase, tra cui la più nota è quella ripresa dal film “The butterfly
effect”: “Si dice che il minimo battito d’ali
di una farfalla sia in grado di provocare un uragano dall’altra parte del mondo”. Comunque sia, il succo è sempre lo stesso:
una piccola variazione delle condizioni iniziali comporta una grande
indeterminazione nell’evoluzione del sistema. Tutto ciò deriva
dall’interpretazione della teoria del caos. Tale teoria sviluppata in primis da
Edward Lorenz, ha incredibili ripercussioni su ogni ambito della scienza; a
partire dalla meteorologia, alla dinamica dei corpi, poi ancora nelle ricerche
sulle evoluzioni delle epidemie, ecc. ecc. La teoria del caos segna nel
profondo l’impossibilità degli uomini di conoscere lo svolgimento delle azioni
della natura, nel futuro. Ma veramente il battito delle ali di una farfalla può
provocare un uragano? Si assolutamente si. Naturalmente tutto si evolve in
altri termini, non è che la farfalla batte le ali e si scatena un uragano; la
condizione iniziale –in questo caso il battito di ali- può determinare una
reazione a catena che produce l’indeterminata evoluzione del sistema, e nel
caso della farfalla, può scatenare un uragano. Ciò è determinato dal meccanismo
di retroazione dei sistemi complessi. Infatti una continua retroazione di auto
rafforzamento può amplificare ripetutamente i piccoli effetti iniziali,
traducendoli in enormi variazioni nel evoluzione del sistema. Il percorso che
portò alla definizione della teoria del caos iniziò nel 1860 quando James Clerk
Maxwell cominciò ad analizzare le variazioni nell’ambito delle collisioni
molecolari. Nel 1890 venne il turno di Henrì Poincaré il quale fu il fondatore
di una nuova geometria: la topologia. Tale geometria permette di deformare ogni
lunghezza, angolo o superficie. In questo modo un cerchio può essere deformato
in un quadrato, un cubo in un cilindro, ecc. ecc. Però la topologia si occupa
di tutte quelle proprietà delle figure che non si possono deformare come il
buco in un toro (figura analoga ad una ciambella) che non può essere eliminato.
Ma la cosa importante di questa geometria è che permise a Poincaré di calcolare
il problema dell’attrazione tra tre corpi. Dai tempi della meccanica di Newton
il dilemma dei tre corpi era stato un quesito aperto. A quel tempo era
possibile calcolare con precisione gli effetti gravitazionali dell’attrazione
di due corpi, ma con tre o più, era impossibile. Con la nuova geometria
Poincaré ci riuscì, e il risultato fu sconcertante. Ciò che ottenne fu che le
traiettorie dei tre corpi erano estremamente complesse, così complesse che
Poincaré non si provò nemmeno a disegnarle. Oggi con i computer a disposizione
si possono rappresentare queste orbite e i disegni che vengono fuori sembrano
turbini di tempeste, ma che nascondono un ordine disarmante. Il centro intorno
a cui le orbite convergono si chiama attrattore, e nel caso dei sistemi complessi
prende il nome di attrattore strano, poiché i disegni risultanti sono per lo
più assurdi. Fu così che il caos iniziò a essere compreso, ma ancora mancava
qualcosa. Edward Lorenz fu il vero padre del caos in quanto fece la scoperta
che lo rese palese. Come molte delle scoperte scientifiche più importanti
avvenne per caso: un pomeriggio del 1961 Lorenz stava conducendo una
simulazione meteorologia al computer, quando inserì dei valori scelti da un
listato per simulare le condizioni iniziale. Il risultato ottenuto risultò
completamente errato rispetto a quello originale. Inizialmente il meteorologo
credette di aver commesso qualche errore, ma una volta ricontrollati i dati si
accorse che aveva soltanto messo poche cifre decimali in meno, rispetto ai
valori reali. Una cosa apparentemente normale, in quanto dopo un certo livello
di valori si arrotonda per difetto o per eccesso. In quel caso, però, una
piccola variazione aveva determinato una enorme conseguenza nell’evoluzione del
sistema. Ora vi potrete chiedere: ma allora conoscendo le condizioni iniziali
con una elevata precisione, il sistema si evolverà in maniera determinata! In
realtà non è così, in quanto non si può determinare una misura con una
approssimazione infinita. Non si possono mettere infiniti decimali dopo la
virgola. Inoltre se si parla di materia in evoluzione, bisogna considerare che
esiste un principio che prende il nome di “indeterminazione”, il quale afferma
che non si possono conoscere contemporaneamente velocità e posizione di una
particella in dato istante. Ciò significa che per quanto precisi possiamo
essere a misurare, quando arriviamo a considerare il sistema a livello
microscopico, l’indeterminazione sarà intrinseca nella natura. Questa è la
teoria del caos.
Geometria frattale
Quanto è
lunga una costa? Che forma ha una nuvola? Queste sono le domande che si pose Benoît Mandelbrot
prima di sviluppare la geometria frattale. La sua intenzione era di riuscire a
definire le assurde forme della natura in un linguaggio geometrico matematico.
Per fare questo si avvalse di un’intuizione fantastica: staccando un pezzo di
broccolo è possibile notare che la sua forma equivale a quella del broccolo
intero; così come staccando un pezzo ancora più piccolo la struttura geometrica
rimane inalterata. Analogamente, se si osserva una costa dall’alto, si rimane
stupiti nel costatare che nonostante si riduca la scala della cartografia
sempre di più, la forma della costa rimane uguale. Il frattale, quindi, è un
oggetto geometrico che ripete la sua struttura nelle diverse scale di
osservazione. Nel caso di una nuvola la sua auto somiglianza si estende per
sette ordini di grandezza, il che significa che osservando una nuvola
ingrandita diecimilioni di volte, la struttura del suo bordo rimarrà sempre
uguale. La tecnica fondamentale per la costruzione dei frattali si chiama di
intersezione e viene eseguita attraverso la ripetizione continua di
un’operazione geometrica. Il che significa applicare ripetute volte schemi
semplici come triangoli, in disposizioni ripetute, per formare schemi complessi
come i fiocchi di neve. La geometria frattale, dunque, fa notare come dietro
agli schemi complessi, molte volte caotici, delle forme della natura, si
nasconda un ordine incredibile, frutto di un grande disegno.
La complessità come concetto non-lineare
Quando si parla di complessità si fa riferimento
ad una serie di situazioni nelle quali questo termine può acquistare valori
positivi o negativi. Se ad esempio parliamo di complessità della vita rimaniamo
stupefatti da tanta bellezza, se invece parliamo di complessità di un problema,
il suo significato assume un valore negativo. Nella scienza la complessità può essere
adottato in vari ambiti, ma cercherò di spiegarlo in via generale. Questo
concetto va contro all'idea di linearità, ovvero un sistema le cui parti
possono essere scomposte in sottoinsiemi indipendenti. La complessità, invece,
si fonde molto bene con il concetto di non-linearità. Pensiamo alle materie
scientifiche, se dovessimo metterle in forma piramidale e quindi lineare,
metteremo alla base la matematica, poi la fisica via via fino ad arrivare alla
psicologia. Quindi se cambiasse totalmente il modo di vedere la psicologia, la piramide
rimarrebbe invariata, ma se cambiasse la matematica si sconvolgerebbe tutto. In
realtà bisogna considerare le varie materie interagenti; ad ogni cambiamento in
una o l'altra, le ripercussioni avvengono in via generale. Per avere in mente
il concetto di linearità pensate semplicemente ad una linea, i cui estremi sono
separati e quindi non vi è connessione tra gli elementi, mentre per il concetto
di non-linearità pensate ad un cerchio, in cui tutti gli elementi possono
interagire.
Personalmente credo che la complessità come la
visione ecologica siano le giuste direzioni da seguire per il futuro della
scienza. Per apprezzare questo libro è necessario accettare il concetto di
complessità, poiché sta alla base della maggior parte delle materie che vi proporrò.
La complessità della vita
Oltre alla complessità come sinonimo di
non-linearità vi è anche la complessità intesa come molteplicità di elementi
costituenti un sistema.
Pensate che in un millimetro di sangue ci sono 5
milioni di globuli rossi. In un singolo globulo rosso ci sono 280 milioni di
molecole di emoglobina. Una singola molecola di emoglobina è composta da circa
10.000 atomi. Ma la cosa ancora più straordinaria è che ognuno di questi atomi
ha una sua precisa collocazione spaziale e strutturale, per cui se si spostano
solo tre atomi di carbonio e si eliminano due di ossigeno, si provoca la morte
dell'individuo. Bisogna anche considerare che l'emoglobina è solo una delle
molecole che appartengono alla classe degli enzimi, e che nel nostro corpo ve
ne sono milioni di tipi. Nel caso del corpo umano, e più in generale, del corpo
della maggior parte delle specie presenti sulla terra, la complessità arriva a
livelli stupefacenti. E tutto ciò è stato reso possibile grazie ad una
evoluzione durata solo qualche miliardo di anni, considerando che l'origine
della vita è datata dai 4.4 miliardi di anni fa, quando vi era acqua allo stato
liquido, ai 2.7 miliardi di anni fa, quando si sono trovate le prove
inconfutabili dell'esistenza della vita. Un tempo così breve (in termini di
evoluzione) tiene aperti ancora tanti interrogativi, anche se i principi base
sono stati scoperti e tengono solide le fondamenta di questa scienza.
La complessità della natura
L'ecosistema è una parte di biosfera in cui gli
animali e i vegetali interagiscono fra loro e con l'ambiente che li circonda.
La natura è di per se un grande ecosistema, che contiene un numero enorme di
altri ecosistemi, che a loro volta ne contengono altri. La prerogativa
fondamentale perché l'ecosistema funzioni è la biodiversità. Questo concetto si
fonda sull'idea che per funzionare, la vita sulla terra, ha bisogno di
“servizi” forniti dagli ecosistemi. Questi servizi sono: di fornitura (acqua,
cibo..), di regolazione (regolazione del clima, ciclo dei rifiuti..), culturali
(estetici..) e di supporto (fotosintesi..). Questi sevizi possono essere dati
solo dalla biodiversità. Per farla corta la natura ha bisogno sia di predatori
sia di prede, ma anche di animali che sintetizzano gli scarti dei due, e così
per ogni servizio che viene richiesto per la vita. Questa biodiversità incide
sul livello di complessità della natura, non solo per molteplicità di elementi
che la compongono, ma anche per quantità di interazioni dei vari elementi, che
danno luogo ad un sistema naturale non-lineare.
La complessità della mente
La mente è la cosa più complessa che conosciamo.
Ma la sua complessità non deriva dalla quantità di elementi o interazioni che
compongono il sistema; bensì dalla dal carattere peculiare che la rende cosciente:
il pensiero. Infatti il cervello contiene
cellule nervose (neuroni) e
connessioni (sinapsi), che sono comunque molto
inferiori al numero di connessioni ed elementi presenti in tutta la biosfera.
Dunque parrebbe apparire una contraddizione logica, in quanto la biosfera
essendo quantitativamente più ricca di elementi e interazioni, dovrebbe essere
anche più complessa. Ma vedremo che non è così. La mente, infatti, riesce a
comprendere la biosfera, ma la biosfera non riesce a comprendere la mente. La
mente umana, dunque, ha un grado di complessità maggiore della biosfera proprio
perché riesce a comprenderla. Inoltre, il due a zero per la mente è segnato dal
fatto che la biosfera riproduce se stessa con autoregolazione ed evoluzione, ma
non crea altri organismi che la possono riprodurre, escluso l'uomo. Infatti noi
siamo in grado di produrre piccoli ecosistemi, anche se però non riusciamo a
riprodurre un cervello umano, giustappunto per la sua complessità. Ma mettiamo
caso che un giorno riusciremo a costruire una mente, il passo successivo sarà
stabilire cosa viene dopo. In pratica considerate una scala di complessità, in
cui in fondo si trova la materia nella sua forma più semplice, mentre in cima
si trova la mente. In un futuro non troppo lontano, riprodotta la complessità
della mente, non rimarrebbe che salire un altro gradino della scala e riprodurre
qualcosa di più complesso. Cosa potrebbe essere? Forse una rete di tante menti
interconnesse, o forse una mente artificiale in grado di fare miliardi e
miliardi di calcoli al secondo, affiancata da una mente umana in grado di
comprendere quei calcoli? Questo rimane un mistero e molti sono convinti che
non potremmo risolverlo, in quanto, come la biosfera non capisce la mente, essa
non può comprendere qualcosa di più complesso. Comunque sia, sicuramente il
futuro sarà pieno di sorprese. Di fatto al momento siamo arrivati quasi
all'apice della comprensione delle cose; come se avessimo uno schema generale
di come tutto funziona nel mondo. Ma quando toccheremo il tetto, avremo bisogno
di una maggiore complessità per continuare il nostro sentiero nella comprensione
dalla scienza. E a qual punto verrà il bello.
La complessità dei computer
Per trecento anni i congegni a orologeria sono
state le uniche macchine autonome a disposizione dell’uomo. Negli ultimi anni,
poi, è successa una cosa incredibile: è stato inventato il computer. I computer
sono composti da una componente hardware e una componente software. La
componente hardware è il corpo del computer, quindi quello che possiamo
toccare, smontare e rimontare. La componente software, invece, è la “mente” del
computer, quella che elabora le informazioni. La forza dei computer risiede
proprio qui, nell’elaborare l’informazione che arriva loro. Inizialmente con
l’avvento dei primi computer, molti scienziati erano convinti che non vi fosse
differenza tra mente umana e computer, in quanto entrambe elaboravano
l’informazione. Recenti sviluppi delle scienze della cognizione hanno invece
dimostrato che la differenza c’è, ed è lampante. La mente umana infatti non
elabora l’informazione, ma reagisce agli stimoli dell’ambiente, modificando la
propria struttura. Inoltre le nostre decisioni, sono prese in virtù delle
nostre emozioni, ma soprattutto della nostra esperienza. In questo senso non si
può paragonare una mente umana alla mente di un computer.
Ma cerchiamo di capire meglio il funzionamento della
componente software del computer partendo dal codice binario. Come per le
cellule nervose ipotizzate da gli scienziati Warren McCulloch e Walter Pitts, i computer dovrebbero interagire
attraverso elementi organizzati in commutazione binaria, in questo caso 0 e 1 (due
numeri che possono dare infinite combinazioni). Lo schema sotto riportato mette
alla sinistra i numeri reali e a destra le combinazioni binarie che
rappresentano i numeri reali:
0 → 0
1→1
10→2
11→3
100→4
101→5
E così via. Ma vediamo di comprendere il
funzionamento della macchina che è stato il prototipo del primo computer: la
macchina di Turing. Questa è composta da un nastro in cui sono incisi i numeri
0 e 1 in combinazione casuale. Inoltre, la macchina, deve avere un qualche tipo
di strumento che riesca a leggere un numero alla volta e cambiarlo, se ciò è
richiesto. Lo strumento deve avere degli stati interi con cui gli è stato
impostato cosa deve fare, leggendo le combinazioni. I semplici stati interi
sono “a tale combinazione equivale”: R (destra), L (sinistra), STOP (fermarsi).
Esempio:
00→00R
01→131L
10→651L
11→10R
20→01R.STOP
E così via. Nella destra c'è l'input, nella
sinistra c'è l'output. I numeri in grassetto nell'input sono quelli letti, che
devono essere cambiati nei numeri in grassetto dell'output. Nell'output sono
descritti anche il numero di movimenti che deve compiere a destra o a sinistra
e quando si deve fermare. Grazie a questi input la macchina riesce a formulare
semplici algoritmi. Evolvendo milioni di volte la complessità di questo sistema
si può avere un'idea di come funzionano i computer. Un’ultima considerazione:
abbiamo detto che tutti i calcoli effettuati all’interno dei computer sono
determinati da un codice binario 0 e 1. Le combinazioni di questi due numeri
danno come risultato le lettere, i numeri, le immagini e tutto ciò che vediamo
sullo schermo del nostro computer. Lo 0 e 1 sono definiti, in linguaggio
informatico, bit. Naturalmente un computer con pochi bit non serve a niente,
per questo quando si parla in termini informatici, si usano multipli del bit:
l’unità di misura più utilizzata in informatica è il byte, che corrisponde a 8
bit, e attraverso i suoi multipli si possono comporre i kilobyte (10 3 byte),
megabyte (10 6 byte), il gigabyte (10 9 byte), etc.
Nessun commento:
Posta un commento