Complessità


Ecosistema

Un ecosistema è un interazione tra esseri viventi e non viventi; tra flussi di energia e catene alimentari. La parola ecosistema venne introdotta nel 1935 dal botanico Arthur Tansley. Ogni ecosistema si trova dentro altri ecosistemi: ad esempio il sottobosco si trova dentro il bosco, il quale si trova all’interno di un territorio più grande, e così via. Ogni porzione di biosfera, al cui interno si trovino elementi biotici e abiotici, e in cui ci siano interazioni, è un ecosistema. Potrei scrivere un libro contenente solo esempi di ecosistemi, ma non mi basterebbero milioni di pagine per definirne tutti i tipi. Dunque proverò a proporvi un semplice esempio, lasciando comunque a voi l’onore di astrarre la vostra mente, per applicare il concetto di ecosistema a svariate situazioni. Immaginatevi un albero. Sopra di esso ci possono essere nidi di uccelli, scoiattoli, vermi e moltissime altre specie. Inoltre ci possono essere funghi, batteri, muffe e quant’altro. Ma il fatto che sopra la pianta ci siano delle specie animali e vegetali, non basta affinché essa possa essere considerato un ecosistema; ci devono essere anche delle connessioni tra gli elementi, e qui subentrano le catene alimentari. Ci saranno dunque erbivori, che si nutriranno delle foglie dell’albero, e predatori che si mangeranno gli erbivori. Poi ancora predatori che si papperanno altri predatori, che comunque prima o poi moriranno, e verranno decomposti dai decompositori. Infine la materia biotica decomposta verrà di nuovo assorbita dall’albero, e l’energia tornerà in circolo. A questo punto l’albero può essere considerato un ecosistema, in quanto contiene un numero finito, ma in evoluzione, di elementi che interagiscono tra loro. Ma nonostante questa caratteristica sia sufficiente per dare una definizione ad un ecosistema, non è l’unica proprietà dello stesso. Gli ecosistemi, infatti, presentano la peculiarità di tendere a raggiungere un equilibrio, nel senso che tendono a equilibrare l’ingresso di flussi energetici e materiali, in virtù delle necessità. Ciò non significa che l’equilibrio venga raggiunto, altrimenti il sistema non avrebbe più la capacità di evolversi e rimarrebbe stabile; il che significherebbe fine del sistema. Quindi l’altra caratteristica dei sistemi complessi, come gli ecosistemi, è di trovarsi sempre lontani dall’equilibrio. Tutto questo è rappresentabile sempre attraverso l’esempio della catena alimentare:  così come sono importanti le prede per dare cibo ai predatori, sono importanti i predatori per mantenere il giusto numero di prede. All'interno dell'ecosistema, quindi, vi è un evidente esempio di come, senza le interazioni, il sistema non possa funzionare. Alla base della catena alimentare troviamo i produttori, che sono coloro che si producono da soli le riserve alimentari attraverso l'organizzazione dei composti chimici del terreno (vegetali). Al secondo posto della catena alimentare ci sono i consumatori di primo ordine, ovvero coloro che si cibano dei produttori (erbivori). Al terzo posto ci sono i consumatori di secondo ordine, ovvero coloro che si cibano dei consumatori di primo ordine (carnivori che si cibano di erbivori). Infine ci sono i consumatori di terzo ordine, ovvero coloro che si cibano dei consumatori di secondo ordine (carnivori che mangiano carnivori). La cosa interessante è che via via che la catena alimentare fa il suo corso, l'energia iniziale del sistema, ovvero quella prodotta e consumata dai produttori, va sempre diminuendo durante il percorso. I consumatori di terzo ordine non potrebbero dunque nutrirsi di produttori, poiché l’energia non potrebbe trasferirsi uniformemente nella catena. Per questo sono necessari i consumatori primari e secondari, per distribuire nell'intero ecosistema la giusta quantità di energia. Però, a questo punto, una domanda sorge spontanea: senza i consumatori di terzo ordine l'intero ecosistema potrebbe comunque continuare senza problemi? La risposta è che senza questi predatori si formerebbero degli squilibri; quindi il numero di consumatori di secondo ordine aumenterebbe a dismisura e di conseguenza diminuirebbero i consumatori di primo ordine, innescando una reazione a catena. Naturalmente, in quanto sistema complesso, l'ecosistema, con i tempo ritroverebbe la sua tendenza all’equilibrio, ma affinché la natura faccia il suo corso, qualsiasi sia l'epoca storica, le interazioni sono fondamentali, e il cerchio della vita rimane comunque una certezza.

Teoria generale dei sistemi

Negli anni quaranta, Bertalanffy, animato da una battaglia scientifica, dette vita alla teoria generale dei sistemi. In quel periodo vi era un forte controversia tra fisici e biologi. Il problema derivava da una legge fisica: la seconda legge della termodinamica. Secondo tale legge il disordine all’interno di un sistema è sempre in aumento. Un esempio classico per comprendere il concetto di disordine è visualizzare un bicchiere che casa da un tavolo; il risultato sarà che il sistema ordinato bicchiere, si ritroverà in un sistema disordinato, bicchiere rotto. Ma vediamo di preciso cosa dice la seconda legge della termodinamica: “In un sistema chiuso l’entropia è sempre in aumento”. L’entropia è la misura del disordine all’interno di un sistema, e questa legge impone che dentro un sistema chiuso il disordine sia in aumento. La visione diametralmente opposta tra biologi e fisici derivava da fatto, che secondo i biologi gli esseri viventi sono strutture ordinate derivate dal disordine, mentre per i fisici ciò non era possibile. Quindi, secondo i biologi, la freccia della termodinamica, che punta chiaramente nella direzione della freccia del tempo, nel caso della vita, veniva in qualche modo violata. A risolvere la controversia fu Bertalanffy, il quale introdusse il concetto di sistema aperto. Secondo lui, infatti, all’interno di un sistema aperto si può creare ordine dal disordine. Ma cos’è un sistema aperto? È semplicemente un sistema che può avere scambi con l’esterno. Un esempio lampante siamo noi: infatti mangiamo, beviamo, evacuiamo etc. Quindi la seconda legge della termodinamica permetterebbe ad un sistema aperto di creare ordine dal disordine, purché il l’energia totale prodotta per creare l’ordine, contribuisca ad aumentare il disordine totale prodotto. Attraverso questa deduzione Bertalanffy spianò la strada per la produzione di altri tipi di sistemi, ognuno dalle proprie proprietà.

Sistemi con la capacità di auto-organizzazione

I sistemi complessi presentano una particolarità: essi sono dotati della capacità di auto-organizzazione. Tale proprietà rende il sistema sempre più complesso nel tempo. È una capacità volta a migliorare il sistema stesso, ed è intrinseca all’interno del sistema. L’auto-organizzazione è una capacità in grado di creare ordine dal disordine, pur rimanendo in accordo con il secondo principio della termodinamica. I sistemi complessi, quindi, hanno la capacità di far crescer l’ordine al proprio interno, senza violare tale principio, e ciò avviene in virtù del fatto che per ordinarsi, il sistema, utilizza una certa quantità di energia tale, da essere maggiore del suo ordine interno. Il concetto di auto-organizzazione fu lanciato in seguito ad un articolo scritto da Warren McCulloch e Walter Pitts. I due scienziati introdussero l’idea che i neuroni fossero rappresentati da elementi a commutazione binaria (potevano essere o accesi o spenti). Le connessioni fra gli elementi fanno si che l’attività di ciascun elemento sia determinata dall’attività di un elemento precedente, a seconda di una qualche regola di commutazione. Negli anni cinquanta furono costruiti modelli con lampadine vere e proprie per osservare quello che sarebbe successo. Inizialmente veniva definito uno schema disordinato di lampadine accese o spente, e veniva definita una qualche regola di rapporti. Ad esempio, una lampadina spenta che si trovava accanto a tre lampadine accese doveva accendersi; mentre una lampadina accesa che si trovava tra due spente doveva spengersi. In questo modo, con grande stupore dei ricercatori, le lampadine cominciarono ad accendersi e spengersi secondo schemi sempre più ordinati. Addirittura si configurarono cicli perpetui. Quindi nonostante il sistema fosse stato impostato con un disordine iniziale, con il tempo la sua configurazione andava verso l’ordine. Nacque così il concetto di auto-organizzazione. 

Retroazione

I sistemi complessi sono sistemi che hanno una capacità particolare che si chiama retroazione o feedback. Si consideri un cerchio con diversi elementi. Ogni elemento modifica il comportamento dell’elemento successivo, così che il primo elemento influirà anche sull’ultimo. A questo punto avviene l’auto-regolazione:  l’effetto iniziale viene modificato ad ogni ciclo, cosicché il sistema tende ad oscillare intorno ad una condizione di equilibrio. Pensate ad un timoniere. Quando il vento fa cambiare la rotta all’imbarcazione, il timoniere deve modificare la propria rotta cercando il più possibile di tornare su quella stabilita. Naturalmente non potrà avere una precisione millimetrica e la direzione della barca si scosterà di poco fuori rotta. Cosicché il timoniere dovrà rimodificare la rotta e ricercare la giusta direzione. Queste modifiche dovranno essere effettuate più volte cercando di rimanere più stabile possibile. Ecco la retroazione comporta proprio questo: le modifiche sull’ingresso delle reti energetico - informative, comportano un’oscillazione del sistema rispetto al suo equilibrio. Questa tendenza dei sistemi complessi di raggiungere un livello di stabilità viene definita omeostasi.

La teoria della complessità

La teoria della complessità studia i sistemi complessi con la capacità di auto-organizzazione, e quindi il numero di elementi e di interazioni che fanno si che un sistema riesca ad evolversi e organizzarsi indipendentemente. Questi sistemi hanno diverse proprietà: la prima è la presenza al loro interno di reti energetico-informative, attraverso cui l’informazione e l’energia si trasmettono per ipotetiche vie. Prendiamo ancora come esempio la catena alimentare: gli erbivori mangiano i vegetali, quindi l’energia immagazzinata dal produttore passa al predatore. Poi i predatori di secondo ordine mangiano gli erbivori, e quindi l’energia che aveva iniziato il suo corso all’interno dei vegetali, passa poi agli erbivori e successivamente ai predatori di secondo ordine. Tutto questo avviene fino a che l’energia viene passata all’ultimo anello della catena:  i produttori di terzo ordine; i quali non vengono mangiati da nessuno, ma che al momento della loro morte vengono decomposti dai decompositori, permettendo all’energia di tornare nuovamente in circolo. La seconda proprietà dei sistemi complessi è il carattere di adattività con l’ambiente. Questa proprietà consente di avere scambi con l’esterno del sistema (ambiente) e quindi di regolare le funzioni interne a seconda della necessità o meno di energia. La terza proprietà dei sistemi complessi è l’assenza di un elemento principale che controlla il sistema. Nella natura non esistono capi di governo che decidono per gli altri, ogni elemento ha la sua imprescindibile importanza. La quarta proprietà dei sistemi complessi è l’equilibrio dinamico in cui si trova il sistema. Infatti i sistemi capaci di auto-organizzazione non sono statici; molti cambiamenti avvengono al loro interno, in seguito a molte cause (come variazioni nell’ambiente esterno). La  conseguenza di questa dinamicità è quella di una retroazione, ovvero la capacità di modificare l’entrata o l’uscita dei flussi energetici tale, che il sistema resta in equilibrio dinamico. La quinta proprietà dei sistemi complessi è quella di auto-organizzazione, ovvero la tendenza a raggiungere una condizione statica irraggiungibile. La sesta, ultima, ma non meno importante, proprietà dei sistemi complessi è quella di presentare al loro interno la comparsa di aspetti notevoli o emergenti. Attraverso meccanismi di retroazione il sistema è capace di presentare aspetti che non potevano essere determinati precedentemente alla loro creazione. All’interno dei sistemi complessi, quindi, possono apparire aspetti del tutto inattesi e non necessari, come lo sviluppo della socialità, del pensiero, etc. Ciò è importante poiché queste caratteristiche non sono fondamentali all’interno del sistema; non si ritrovano nelle strutture e nelle funzioni interne del sistema, sono come create da esso. 

Teoria del caos

“Il battito di ali di una farfalla in Brasile può scatenare un tornado in Texas?” così era intitolato il seminario tenuto da Edward Lorenz, alla American Association for the Advancement of Science. Si dice che il titolo fu inventato da Philips Merilees (meteorologo e ordinatore della sessione di Lorenz), in quanto Lorenz non riusciva ad inventarsene uno adatto. Ma l’origine di questa storica frase ha origini ancora addietro, quando un meteorologo, si narra, fece un commento sprezzante sulla teoria del caos, affermando che se la teoria fosse risultata giusta, “un battito d’ala di gabbiano avrebbe potuto cambiare per sempre il corso del clima”. Al giorno d’oggi nel web, e nei libri, girano molte rivisitazioni di questa frase, tra cui la più nota è quella ripresa dal film “The butterfly effect”: “Si dice che il minimo battito d’ali di una farfalla sia in grado di provocare un uragano dall’altra parte del mondo”. Comunque sia, il succo è sempre lo stesso: una piccola variazione delle condizioni iniziali comporta una grande indeterminazione nell’evoluzione del sistema. Tutto ciò deriva dall’interpretazione della teoria del caos. Tale teoria sviluppata in primis da Edward Lorenz, ha incredibili ripercussioni su ogni ambito della scienza; a partire dalla meteorologia, alla dinamica dei corpi, poi ancora nelle ricerche sulle evoluzioni delle epidemie, ecc. ecc. La teoria del caos segna nel profondo l’impossibilità degli uomini di conoscere lo svolgimento delle azioni della natura, nel futuro. Ma veramente il battito delle ali di una farfalla può provocare un uragano? Si assolutamente si. Naturalmente tutto si evolve in altri termini, non è che la farfalla batte le ali e si scatena un uragano; la condizione iniziale –in questo caso il battito di ali- può determinare una reazione a catena che produce l’indeterminata evoluzione del sistema, e nel caso della farfalla, può scatenare un uragano. Ciò è determinato dal meccanismo di retroazione dei sistemi complessi. Infatti una continua retroazione di auto rafforzamento può amplificare ripetutamente i piccoli effetti iniziali, traducendoli in enormi variazioni nel evoluzione del sistema. Il percorso che portò alla definizione della teoria del caos iniziò nel 1860 quando James Clerk Maxwell cominciò ad analizzare le variazioni nell’ambito delle collisioni molecolari. Nel 1890 venne il turno di Henrì Poincaré il quale fu il fondatore di una nuova geometria: la topologia. Tale geometria permette di deformare ogni lunghezza, angolo o superficie. In questo modo un cerchio può essere deformato in un quadrato, un cubo in un cilindro, ecc. ecc. Però la topologia si occupa di tutte quelle proprietà delle figure che non si possono deformare come il buco in un toro (figura analoga ad una ciambella) che non può essere eliminato. Ma la cosa importante di questa geometria è che permise a Poincaré di calcolare il problema dell’attrazione tra tre corpi. Dai tempi della meccanica di Newton il dilemma dei tre corpi era stato un quesito aperto. A quel tempo era possibile calcolare con precisione gli effetti gravitazionali dell’attrazione di due corpi, ma con tre o più, era impossibile. Con la nuova geometria Poincaré ci riuscì, e il risultato fu sconcertante. Ciò che ottenne fu che le traiettorie dei tre corpi erano estremamente complesse, così complesse che Poincaré non si provò nemmeno a disegnarle. Oggi con i computer a disposizione si possono rappresentare queste orbite e i disegni che vengono fuori sembrano turbini di tempeste, ma che nascondono un ordine disarmante. Il centro intorno a cui le orbite convergono si chiama attrattore, e nel caso dei sistemi complessi prende il nome di attrattore strano, poiché i disegni risultanti sono per lo più assurdi. Fu così che il caos iniziò a essere compreso, ma ancora mancava qualcosa. Edward Lorenz fu il vero padre del caos in quanto fece la scoperta che lo rese palese. Come molte delle scoperte scientifiche più importanti avvenne per caso: un pomeriggio del 1961 Lorenz stava conducendo una simulazione meteorologia al computer, quando inserì dei valori scelti da un listato per simulare le condizioni iniziale. Il risultato ottenuto risultò completamente errato rispetto a quello originale. Inizialmente il meteorologo credette di aver commesso qualche errore, ma una volta ricontrollati i dati si accorse che aveva soltanto messo poche cifre decimali in meno, rispetto ai valori reali. Una cosa apparentemente normale, in quanto dopo un certo livello di valori si arrotonda per difetto o per eccesso. In quel caso, però, una piccola variazione aveva determinato una enorme conseguenza nell’evoluzione del sistema. Ora vi potrete chiedere: ma allora conoscendo le condizioni iniziali con una elevata precisione, il sistema si evolverà in maniera determinata! In realtà non è così, in quanto non si può determinare una misura con una approssimazione infinita. Non si possono mettere infiniti decimali dopo la virgola. Inoltre se si parla di materia in evoluzione, bisogna considerare che esiste un principio che prende il nome di “indeterminazione”, il quale afferma che non si possono conoscere contemporaneamente velocità e posizione di una particella in dato istante. Ciò significa che per quanto precisi possiamo essere a misurare, quando arriviamo a considerare il sistema a livello microscopico, l’indeterminazione sarà intrinseca nella natura. Questa è la teoria del caos.

Geometria frattale

Quanto è lunga una costa? Che forma ha una nuvola? Queste sono le domande che si pose Benoît Mandelbrot prima di sviluppare la geometria frattale. La sua intenzione era di riuscire a definire le assurde forme della natura in un linguaggio geometrico matematico. Per fare questo si avvalse di un’intuizione fantastica: staccando un pezzo di broccolo è possibile notare che la sua forma equivale a quella del broccolo intero; così come staccando un pezzo ancora più piccolo la struttura geometrica rimane inalterata. Analogamente, se si osserva una costa dall’alto, si rimane stupiti nel costatare che nonostante si riduca la scala della cartografia sempre di più, la forma della costa rimane uguale. Il frattale, quindi, è un oggetto geometrico che ripete la sua struttura nelle diverse scale di osservazione. Nel caso di una nuvola la sua auto somiglianza si estende per sette ordini di grandezza, il che significa che osservando una nuvola ingrandita diecimilioni di volte, la struttura del suo bordo rimarrà sempre uguale. La tecnica fondamentale per la costruzione dei frattali si chiama di intersezione e viene eseguita attraverso la ripetizione continua di un’operazione geometrica. Il che significa applicare ripetute volte schemi semplici come triangoli, in disposizioni ripetute, per formare schemi complessi come i fiocchi di neve. La geometria frattale, dunque, fa notare come dietro agli schemi complessi, molte volte caotici, delle forme della natura, si nasconda un ordine incredibile, frutto di un grande disegno.

La complessità come concetto non-lineare

Quando si parla di complessità si fa riferimento ad una serie di situazioni nelle quali questo termine può acquistare valori positivi o negativi. Se ad esempio parliamo di complessità della vita rimaniamo stupefatti da tanta bellezza, se invece parliamo di complessità di un problema, il suo significato assume un valore negativo.  Nella scienza la complessità può essere adottato in vari ambiti, ma cercherò di spiegarlo in via generale. Questo concetto va contro all'idea di linearità, ovvero un sistema le cui parti possono essere scomposte in sottoinsiemi indipendenti. La complessità, invece, si fonde molto bene con il concetto di non-linearità. Pensiamo alle materie scientifiche, se dovessimo metterle in forma piramidale e quindi lineare, metteremo alla base la matematica, poi la fisica via via fino ad arrivare alla psicologia. Quindi se cambiasse totalmente il modo di vedere la psicologia, la piramide rimarrebbe invariata, ma se cambiasse la matematica si sconvolgerebbe tutto. In realtà bisogna considerare le varie materie interagenti; ad ogni cambiamento in una o l'altra, le ripercussioni avvengono in via generale. Per avere in mente il concetto di linearità pensate semplicemente ad una linea, i cui estremi sono separati e quindi non vi è connessione tra gli elementi, mentre per il concetto di non-linearità pensate ad un cerchio, in cui tutti gli elementi possono interagire.

Personalmente credo che la complessità come la visione ecologica siano le giuste direzioni da seguire per il futuro della scienza. Per apprezzare questo libro è necessario accettare il concetto di complessità, poiché sta alla base della maggior parte delle materie che vi proporrò.

La complessità della vita

Oltre alla complessità come sinonimo di non-linearità vi è anche la complessità intesa come molteplicità di elementi costituenti un sistema.

Pensate che in un millimetro di sangue ci sono 5 milioni di globuli rossi. In un singolo globulo rosso ci sono 280 milioni di molecole di emoglobina. Una singola molecola di emoglobina è composta da circa 10.000 atomi. Ma la cosa ancora più straordinaria è che ognuno di questi atomi ha una sua precisa collocazione spaziale e strutturale, per cui se si spostano solo tre atomi di carbonio e si eliminano due di ossigeno, si provoca la morte dell'individuo. Bisogna anche considerare che l'emoglobina è solo una delle molecole che appartengono alla classe degli enzimi, e che nel nostro corpo ve ne sono milioni di tipi. Nel caso del corpo umano, e più in generale, del corpo della maggior parte delle specie presenti sulla terra, la complessità arriva a livelli stupefacenti. E tutto ciò è stato reso possibile grazie ad una evoluzione durata solo qualche miliardo di anni, considerando che l'origine della vita è datata dai 4.4 miliardi di anni fa, quando vi era acqua allo stato liquido, ai 2.7 miliardi di anni fa, quando si sono trovate le prove inconfutabili dell'esistenza della vita. Un tempo così breve (in termini di evoluzione) tiene aperti ancora tanti interrogativi, anche se i principi base sono stati scoperti e tengono solide le fondamenta di questa scienza.

La complessità della natura

L'ecosistema è una parte di biosfera in cui gli animali e i vegetali interagiscono fra loro e con l'ambiente che li circonda. La natura è di per se un grande ecosistema, che contiene un numero enorme di altri ecosistemi, che a loro volta ne contengono altri. La prerogativa fondamentale perché l'ecosistema funzioni è la biodiversità. Questo concetto si fonda sull'idea che per funzionare, la vita sulla terra, ha bisogno di “servizi” forniti dagli ecosistemi. Questi servizi sono: di fornitura (acqua, cibo..), di regolazione (regolazione del clima, ciclo dei rifiuti..), culturali (estetici..) e di supporto (fotosintesi..). Questi sevizi possono essere dati solo dalla biodiversità. Per farla corta la natura ha bisogno sia di predatori sia di prede, ma anche di animali che sintetizzano gli scarti dei due, e così per ogni servizio che viene richiesto per la vita. Questa biodiversità incide sul livello di complessità della natura, non solo per molteplicità di elementi che la compongono, ma anche per quantità di interazioni dei vari elementi, che danno luogo ad un sistema naturale non-lineare.

La complessità della mente

La mente è la cosa più complessa che conosciamo. Ma la sua complessità non deriva dalla quantità di elementi o interazioni che compongono il sistema; bensì dalla dal carattere peculiare che la rende cosciente: il pensiero. Infatti il cervello contiene  cellule nervose (neuroni) e  connessioni (sinapsi), che sono comunque molto inferiori al numero di connessioni ed elementi presenti in tutta la biosfera. Dunque parrebbe apparire una contraddizione logica, in quanto la biosfera essendo quantitativamente più ricca di elementi e interazioni, dovrebbe essere anche più complessa. Ma vedremo che non è così. La mente, infatti, riesce a comprendere la biosfera, ma la biosfera non riesce a comprendere la mente. La mente umana, dunque, ha un grado di complessità maggiore della biosfera proprio perché riesce a comprenderla. Inoltre, il due a zero per la mente è segnato dal fatto che la biosfera riproduce se stessa con autoregolazione ed evoluzione, ma non crea altri organismi che la possono riprodurre, escluso l'uomo. Infatti noi siamo in grado di produrre piccoli ecosistemi, anche se però non riusciamo a riprodurre un cervello umano, giustappunto per la sua complessità. Ma mettiamo caso che un giorno riusciremo a costruire una mente, il passo successivo sarà stabilire cosa viene dopo. In pratica considerate una scala di complessità, in cui in fondo si trova la materia nella sua forma più semplice, mentre in cima si trova la mente. In un futuro non troppo lontano, riprodotta la complessità della mente, non rimarrebbe che salire un altro gradino della scala e riprodurre qualcosa di più complesso. Cosa potrebbe essere? Forse una rete di tante menti interconnesse, o forse una mente artificiale in grado di fare miliardi e miliardi di calcoli al secondo, affiancata da una mente umana in grado di comprendere quei calcoli? Questo rimane un mistero e molti sono convinti che non potremmo risolverlo, in quanto, come la biosfera non capisce la mente, essa non può comprendere qualcosa di più complesso. Comunque sia, sicuramente il futuro sarà pieno di sorprese. Di fatto al momento siamo arrivati quasi all'apice della comprensione delle cose; come se avessimo uno schema generale di come tutto funziona nel mondo. Ma quando toccheremo il tetto, avremo bisogno di una maggiore complessità per continuare il nostro sentiero nella comprensione dalla scienza. E a qual punto verrà il bello.

La complessità dei computer

Per trecento anni i congegni a orologeria sono state le uniche macchine autonome a disposizione dell’uomo. Negli ultimi anni, poi, è successa una cosa incredibile: è stato inventato il computer. I computer sono composti da una componente hardware e una componente software. La componente hardware è il corpo del computer, quindi quello che possiamo toccare, smontare e rimontare. La componente software, invece, è la “mente” del computer, quella che elabora le informazioni. La forza dei computer risiede proprio qui, nell’elaborare l’informazione che arriva loro. Inizialmente con l’avvento dei primi computer, molti scienziati erano convinti che non vi fosse differenza tra mente umana e computer, in quanto entrambe elaboravano l’informazione. Recenti sviluppi delle scienze della cognizione hanno invece dimostrato che la differenza c’è, ed è lampante. La mente umana infatti non elabora l’informazione, ma reagisce agli stimoli dell’ambiente, modificando la propria struttura. Inoltre le nostre decisioni, sono prese in virtù delle nostre emozioni, ma soprattutto della nostra esperienza. In questo senso non si può paragonare una mente umana alla mente di un computer.

Ma cerchiamo di capire meglio il funzionamento della componente software del computer partendo dal codice binario. Come per le cellule nervose ipotizzate da gli scienziati Warren McCulloch e Walter Pitts, i computer dovrebbero interagire attraverso elementi organizzati in commutazione binaria, in questo caso 0 e 1 (due numeri che possono dare infinite combinazioni). Lo schema sotto riportato mette alla sinistra i numeri reali e a destra le combinazioni binarie che rappresentano i numeri reali:

0 → 0

1→1

10→2

11→3

100→4

101→5

E così via. Ma vediamo di comprendere il funzionamento della macchina che è stato il prototipo del primo computer: la macchina di Turing. Questa è composta da un nastro in cui sono incisi i numeri 0 e 1 in combinazione casuale. Inoltre, la macchina, deve avere un qualche tipo di strumento che riesca a leggere un numero alla volta e cambiarlo, se ciò è richiesto. Lo strumento deve avere degli stati interi con cui gli è stato impostato cosa deve fare, leggendo le combinazioni. I semplici stati interi sono “a tale combinazione equivale”: R (destra), L (sinistra), STOP (fermarsi). Esempio:

00→00R

01→131L

10→651L

11→10R

20→01R.STOP

E così via. Nella destra c'è l'input, nella sinistra c'è l'output. I numeri in grassetto nell'input sono quelli letti, che devono essere cambiati nei numeri in grassetto dell'output. Nell'output sono descritti anche il numero di movimenti che deve compiere a destra o a sinistra e quando si deve fermare. Grazie a questi input la macchina riesce a formulare semplici algoritmi. Evolvendo milioni di volte la complessità di questo sistema si può avere un'idea di come funzionano i computer. Un’ultima considerazione: abbiamo detto che tutti i calcoli effettuati all’interno dei computer sono determinati da un codice binario 0 e 1. Le combinazioni di questi due numeri danno come risultato le lettere, i numeri, le immagini e tutto ciò che vediamo sullo schermo del nostro computer. Lo 0 e 1 sono definiti, in linguaggio informatico, bit. Naturalmente un computer con pochi bit non serve a niente, per questo quando si parla in termini informatici, si usano multipli del bit: l’unità di misura più utilizzata in informatica è il byte, che corrisponde a 8 bit, e attraverso i suoi multipli si possono comporre i kilobyte (10 3 byte), megabyte (10 6 byte), il gigabyte (10 9 byte), etc.

Nessun commento:

Posta un commento