nicolettasala


La spazialità di Taverna: uno sguardo lucido su complessità

e caos deterministico, ovvero sul reale

 

Nicoletta Sala

Accademia di Architettura

Università della Svizzera  Italiana

6850 Mendrisio, Svizzera

 

 

Finché le leggi della matematica si riferiscono alla realtà, non sono certe;

e finché esse sono certe, non si riferiscono alla realtà.

Albert Einstein (1879-1955)

 

 

1. Introduzione

 

Il termine caos deriva dal latino chaos, che deriva a sua volta dal greco chaòs, che significa “gas”. Gli antichi Greci chiamavano chaòs la materia primordiale senza ordine che preesisteva al cosmos, cioè all’universo ordinato. La definizione che fornisce Il Dizionario della lingua italiana[1] in relazione al “caos” è la seguente: “Secondo gli antichi, confusione originaria della materia informe, prima che il mondo fosse ordinato”.  L’universo, secondo il filosofo greco Anassagora di Clazomene (circa 500-428 a.C.), era in origine un caos di diversi semi (spermata), sovrinteso da una mente (nous) che ordinava i semi primordiali, disponendoli in un vortice rotatorio. Questa rotazione deviava i semi nei quattro elementi allora conosciuti: fuoco, aria, acqua e terra e separava il mondo in due strati: etere (esterno) e aria (interno). Egli sosteneva che il sole e le stelle erano mossi da rocce ardenti, i venti erano provocati dalla rarefazione dell’atmosfera prodotta dal calore del sole, il tuono era invece causato dalla collisione di masse d’aria e i lampi dall’attrito che ne derivava.

Al concetto di caos sono ora associate le nozioni di imprevedibilità e di interconnessione globale tra i fenomeni: per esemplificare l’idea di caos si sostiene che il battito di ali di una farfalla in Giappone potrebbe causare una tempesta imprevista in Texas (“butterfly effect” o “effetto farfalla”). Questo fenomeno fu osservato per la prima volta da Edward Norton Lorenz, meteorologo presso il MIT (Massachusetts Institute of Technology), che aveva elaborato al computer un modello delle condizioni atmosferiche. Anche se i suoi risultati non furono utili per le previsioni del tempo reale, tuttavia furono realistici nel riprodurre la sua variabilità, in particolare nel non presentarsi mai in aspetto identico a se stesso. L’effetto farfalla fu scoperto da Lorenz in modo del tutto casuale, nel 1961, quando inserì nel suo computer dei numeri approssimati a tre cifre decimali invece che a sei come faceva di solito. Egli si aspettava che, se le condizioni iniziali erano approssimativamente simili, e seguivano le leggi naturali, anche il comportamento finale non doveva variare di molto. Quello che apparve agli occhi di Lorenz fu invece in parte totalmente diverso rispetto alle sue previsioni; ciò evidenziava il fatto che, variando di poco le condizioni iniziali, i risultati finali potevano differire di molto. Questo è “l’effetto farfalla” che verrà in seguito indicato con i termini “sensitività rispetto alle condizioni iniziali”. Il caos è associato ad avvenimenti disordinati, incontrollabili, che procedono senza alcuna regola o logica apparenti, i cosiddetti sistemi dinamici. Questi sistemi variano in modo irregolare nel tempo, come ad esempio le epidemie, i fenomeni borsistici, i fenomeni meteorologici. Un qualsiasi sistema dinamico si compone di due parti: le variabili caratteristiche del suo stato (cioè le informazioni essenziali sul sistema) e la dinamica (ossia una regola che descrive l’evoluzione dello stato nel tempo). Alcuni dei sistemi dinamici possono assumere un aspetto così complicato da apparire del tutto casuali, quindi difficili da assoggettare a una qualsiasi forma di previsione. Un fenomeno che ha queste caratteristiche si dice che soggiace al caos deterministico. In sintesi, il concetto di caos sta ad indicare che sistemi dinamici simili tra loro possono avere destini completamente diversi, pur iniziando ad evolvere nelle stesse condizioni. Lo studio del caos fornisce quindi uno strumento per cercare di prevedere l’evoluzione di un determinato fenomeno. Ad esempio, si può non essere in grado di predire con esattezza la diffusione di una malattia o la crescita di una certa popolazione biologica; però si può essere in grado di conoscere in quali condizioni una malattia cessa di diffondersi (o scompare) o una popolazione si estingue. La conoscenza di queste informazioni è spesso molto più importante rispetto al sapere l’esatta evoluzione futura.

La teoria contemporanea del caos afferma che molti fenomeni, benché seguano rigide regole deterministiche, si rivelano imprevedibili in linea di principio. Gli eventi caotici, come ad esempio la turbolenza atmosferica o le pulsazioni cardiache, manifestano andamenti simili però su scale temporali diverse, più o meno come gli oggetti che presentano forme strutturali simili su scale spaziali diverse e che sono quindi dotati di autosomiglianza. Un oggetto è dotato di autosomiglianza se ripete sempre più in piccolo la sua forma. La proprietà dell’autosomiglianza è tipica della geometria frattale.

La geometria frattale o geometria dell'irregolare, sta trovando ampie applicazioni nella descrizione dei fenomeni naturali e nella loro simulazione con l'ausilio dei computer. La parola frattale è un neologismo, coniato da Benoit Mandelbrot nel 1970, che deriva dal latino fractus, che significa interrotto, irregolare. Questi aggettivi ben si adattano agli oggetti frattali che hanno una forma frastagliata e irregolare. La geometria frattale è nata agli inizi del XX secolo grazie agli studi di Gaston Julia (1893-1978) e ha trovato il suo massimo sviluppo con l'avvento degli elaboratori elettronici che hanno permesso la visualizzazione delle curve e degli insiemi frattali.

Attualmente si può quindi ipotizzare una corrispondenza tra la geometria frattale e il caos e viceversa. Questa corrispondenza non è casuale, ma è il segno di una profonda relazione: la geometria frattale è infatti la geometria che descrive il caos.

Un’altra analogia tra la geometria frattale e la teoria del caos consiste nel fatto che in entrambi i campi le scoperte più recenti sono avvenute grazie alla potenza di calcolo dei moderni computer.  La figura 1 illustra un esempio di curva frattale associata a un fenomeno dinamico. Si tratta dell’attrattore di Lorenz che rappresenta le traiettorie, nello spazio delle fasi (x, y, z), della legge del moto studiata da Lorenz. Lo scienziato si rese anche conto che queste traiettorie andavano a disporsi su una figura particolare che non mutava cambiando le condizioni iniziali. Questo attrattore caotico venne chiamato “attrattore strano di Lorenz”. La sua forma ci fornisce informazioni di regolarità perché dice che, per quanto bizzarre, le traiettorie rimarranno intrappolate all’interno di quella figura. Inoltre, la forma e l’estensione dell’attrattore dipendono dai parametri. Da questo si può dedurre, ad esempio, come un aumento di temperatura possa influire sull’ampiezza delle oscillazioni climatiche, pur non permettendo di fare previsioni a lungo termine circa le condizioni meteorologiche.


 


Figura 1  - Esempio di attrattore di Lorenz

 

 

 

 2. La complessità

 

La complessità, com’è accaduto anche per il caos, si presenta oggi come un concetto denso di significato. Il termine complessità non possiede uno statuto epistemologico sicuro: la filosofia della scienza non lo ha, a tutt’oggi, perfettamente definito. Questo termine connota comunemente significati intrisi d’incertezza, non-chiarezza, disordine, non semplicità.

“Complesso” indica qualcosa di molto articolato, di composto di molte parti interagenti tra loro, in maniera non banale, in modo cioè che tutte le parti abbiano un certo grado di autonomia l’una dall’altra, ma siano anche dipendenti tra loro.

“Complexus” è infatti ciò che è intessuto insieme. È il tessuto risultante derivato da fili differenti che sono divenuti unità, in una visione che trascende ciascun filo.  I sistemi complessi sono formati da moltissime parti che interagiscono tra loro.

I fenomeni biologici e sociali possono essere classificati come fenomeni complessi, in quanto presentano un numero incalcolabile di interazioni, di interretroazioni, uno straordinario intreccio di relazioni formali non calcolabile nemmeno dai sistemi di calcolo computerizzato più potenti. Niels Bohr (1885-1962), padre della fisica quantistica e del concetto di complementarietà, affermava: “Le interazioni che tengono in vita l’organismo di un cane  sono interazioni che non possono essere studiate in vivo. Se si volesse studiarle correttamente, bisognerebbe uccidere il cane...

 Un contributo interessante agli studi sulla complessità è stato fornito da Ilya Prigogine (1917-2003) con le cosiddette “strutture dissipative”. Esse mostrano l’insorgere di strutture coerenti a forma di vortice da perturbazioni che avrebbero dovuto fornire come risultato logico solo delle turbolenze.

Esiste inoltre un tipo di complessità concettuale che appare nei sistemi organizzati; ciò pone una difficoltà logica. L’organizzazione è ciò che determina un sistema a partire da elementi diversi, e costituisce dunque unità nello stesso tempo che costituisce una molteplicità. La complessità logica della “unitas multiplex” richiede di non dissolvere il molteplice nell’uno, né l’uno nel molteplice.

Quello che è interessante nella complessità dei sistemi organizzati è il fatto che un sistema sia nel contempo “qualcosa di più” e “qualcosa di meno” di quella che potrebbe essere definita come “la somma algebrica di tutte le sue parti”.

Può essere interessante concentrarsi su cosa s’intende per “qualcosa di meno”. E’ evidente che l’organizzazione come sistema impone alle parti, a ciascuna parte, dei vincoli che inibiscono alcune potenzialità delle parti prese singolarmente. Questo accade in tutti i sistemi organizzati, compresi quelli sociali, economici, politici, ecc. Allo stesso modo il tutto è organizzato in qualcosa di più della somma delle sue parti, in quanto fa emergere delle qualità e delle proprietà che senza una tale organizzazione non esisterebbero. Queste ultime sono qualità “emergenti” nel senso che esercitano delle “retro-azioni” sul livello delle parti, e stimolano queste ultime a sviluppare potenzialità che precedentemente rimanevano inibite.

Si vede benissimo in che modo ad esempio la struttura mediatica, ma anche la cultura, il linguaggio, l’educazione e tutte le proprietà che possono esistere soltanto a livello della totalità sociale, retroagiscono sulle parti (in questo caso gli esseri umani) per modificare lo sviluppo della mente e delle convinzioni, nonché delle abitudini degli individui.

 Nell’orizzonte che si chiama “complessità” vi sono anche degli aspetti a dir poco sorprendenti. Ad esempio, in questo scenario si trova presente un principio che si potrebbe definire “ologrammatico” che mette in evidenza l’apparente paradosso delle organizzazioni complesse nelle quali non solo la parte è nel tutto, ma in cui anche il tutto è inscritto nella parte.

Un ologramma[2] è un’immagine tridimensionale ottenuta senza lenti, per interferenza tra fasci di luce laser. Ogni punto dell’ologramma contiene quasi tutta l’informazione dell’insieme che l’immagine rappresenta.

Questo è presente anche negli organismi biologici.  Gli esseri umani possiedono un’organizzazione di questo tipo: infatti ognuna delle loro cellule, anche la più modesta, contiene l’informazione genetica di tutto l’insieme. E’ logico che solo una piccola parte di quest’informazione è esprimibile da una singola cellula, mentre tutto il resto dell’informazione genetica rimane inibito. In questo modo, ad esempio negli esseri umani si potrà allora affermare che non solo la parte ma anche “il tutto è nella  parte”. Già Blaise Pascal (1623-1662) ribadiva: “Posso comprendere un tutto soltanto se conosco le parti in maniera specifica, ma posso comprendere le parti soltanto se conosco il tutto”.

Il che fa comprendere che lo scienziato francese avesse intuito l’approccio complesso all’analisi dei fenomeni, che va “dal tutto alle parti” e contemporaneamente “dalle parti al tutto”.  Questo è in  sintonia con l’attuale principio ologrammatico.

Il paragone con un ologramma è stato utilizzato da David Bohm (1917-1992), dell’Università di Princeton, per interpretare alcuni “paradossi” della fisica quantistica. Egli è partito da una famosa esperienza di meccanica quantistica, condotta nel 1982 dal fisico Alain Aspect, a sua volta basata su un’ipotesi di lavoro di Einstein, Podolsky e Rosen: il cosiddetto “paradosso EPR”[3]. In questo esperimento, due particelle, inizialmente legate tra di loro, sono separate e successivamente analizzate in modo simultaneo. Si evidenzia così che il tipo di esperimento condotto su di una particella, deciso dopo che erano state separate, influenza i risultati delle misure sulla seconda. Ciò è incompatibile con l’idea che ciascuna particella abbia uno stato fisico definito prima della misura: le due particelle, nel loro insieme, formano un sistema singolo, anche se esteso. Questo è particolarmente problematico, in quanto le misure sono condotte simultaneamente e, per spiegare un collegamento tra le due particelle, sarebbe necessario ipotizzare una comunicazione più veloce della luce.

In ogni caso la teoria della relatività di Einstein è salvaguardata: non è infatti possibile, con questo tipo di esperimenti, comunicare informazioni da uno sperimentatore all’altro. Le possibili “influenze” rilevate, sono in realtà delle correlazioni statistiche che si possono evidenziare solo mettendo insieme i risultati delle due misure. Ciascuno sperimentatore, effettuando delle misurazioni su una singola particella, rileva solo dei risultati casuali, che sono determinati esclusivamente dal processo che ha prodotto le due particelle. Ciò non dipende da quello che l’altro sperimentatore fa all’altra particella. Nel tentativo di spiegare questi risultati, Bohm ha ipotizzato che nell’universo esista un ordine implicito che non vediamo e uno esplicito che è ciò che realmente vediamo; quest’ultimo è il risultato dell’interpretazione che il nostro cervello ci offre delle onde di interferenza che compongono l’universo. In questo modo sarebbe possibile spiegare come i risultati di una misura su di una particella possano influenzare quelli di una misura condotta a distanza su un’altra particella, senza che vi sia una comunicazione tra le due.

Le due particelle sarebbero in realtà l’immagine di qualcosa di implicito, unitario, una sorta di ologramma che si estende attraverso tutto l’universo fisico che siamo in grado di percepire.

Quest’ipotesi, di per sé molto affascinante, rappresenta solo una delle molte teorie elaborate nel tentativo di spiegare gli aspetti sconcertanti, e spesso paradossali, della meccanica quantistica[4].

Il paragone con un ologramma è stato utilizzato in un contesto completamente diverso, dal neurofisiologo d’origine cecoslovacca Karl Pribram, dell’Università di Stanford. Egli lo ha utilizzato per tentare di spiegare come funzioni la memoria. In questo caso il paragone è servito ad evidenziare che i singoli ricordi sono sparsi su aree del cervello estese, che funzionano però in modo coordinato. Quest’interessante analogia, utile come quadro interpretativo, non può essere spinta troppo in là. Il funzionamento del cervello è infatti sovrinteso da meccanismi che sono comunque molto diversi da quelli fisici di un ologramma.

 Un altro importante principio connesso alla complessità è quello della “organizzazione ricorsiva”.

L’organizzazione ricorsiva è quell’organizzazione in cui ogni effetto prodotto dai rapporti tra i soggetti, è causa di nuovi rapporti che producono, a loro volta, nuovi effetti.

In questo modo, gli esseri umani sono il frutto di un sistema di riproduzione nato nella notte dei tempi, ma questo sistema può riprodursi solo se gli esseri umani diventano produttori accoppiandoci. Gli umani producono la società attraverso le e nelle loro interazioni, ma la società, in quanto globalità emergente, produce l’umanità di questi individui portando loro il linguaggio e la cultura.

Le nozioni d’effetto e di causa erano già state connesse con la complessità tramite il “principio dell’anello retroattivo”, introdotto da Norbert Wiener (1894-1964), nel quale l’effetto ritorna in maniera casuale sulla causa che lo ha prodotto.

Questo principio rompe con quello della causalità lineare: la causa agisce sull’effetto e l’effetto sulla causa come in un sistema di riscaldamento in cui il termostato regola il funzionamento della caldaia. Questo meccanismo permette l’autonomia di regolazione termica di un appartamento in rapporto al freddo esterno. In modo più complesso, “l’omeostasi” di un organismo vivente è un insieme di processi regolatori fondati su retroazioni multiple. L’anello di retroazione (o “feedback”) permette, nella sua forma negativa, di ridurre la devianza e quindi di stabilizzare un sistema. Nella sua forma positiva, il feedback è un meccanismo amplificatore: per esempio, la violenza di un soggetto provoca una reazione ancora più violenta. E’ da considerare che le retroazioni sono miriadi nei fenomeni economici, sociali, politici o psicologici.

 La complessità ha evidenziato i lati oscuri delle nostre conoscenze, quegli aspetti considerati marginali che possono invece avere potenzialità insospettabili. La complessità può sembrare un ritorno all’incertezza, alla difficoltà di fare previsioni ma in realtà introduce in molteplici settori di ricerca una linea d’indagine innovativa che si qualifica più articolata, in quanto tenta di riuscire a cogliere nel loro significato gli elementi apparsi accidentali.

 

2. La “complessità” della percezione visiva

 L’uomo ha da sempre cercato di comprendere la natura della percezione, in particolare quella visiva. Si tratta di uno studio anche filosofico in quanto è necessario comprendere in che modo il cervello acquisisce la conoscenza dal mondo esterno.

La percezione può essere intesa come l’elaborazione cognitiva di un’informazione sensoriale che proviene dall’esterno. Essa avviene attraverso dei processi impliciti e automatici.

La prima fase di questi processi di elaborazione ha la sua sede negli organi sensoriali che sono finalizzati alla ricezione e alla traduzione dell’energia in un segnale nervoso che in seguito verrà elaborato da aree del cervello adibite a tale scopo.

I sistemi sensoriali sono specializzati per registrare solo un particolare tipo di stimolo (ad esempio, le onde sonore). Una volta “catturate” dai recettori degli organi di senso, le informazioni raggiungono la corteccia cerebrale, dove vengono attivati i neuroni sensibili alle diverse caratteristiche fisiche e cognitive degli stimoli stessi. Solo a questo punto è corretto parlare più propriamente di percezione, in quanto gli stimoli iniziano ad acquisire un significato per il soggetto.

Quando si osserva un oggetto si ha l’impressione di cogliere simultaneamente tutti gli attribuiti anche se in realtà esistono sistemi separati specializzati per l’elaborazione di ciascuna caratteristica dello stimolo visivo (ad esempio il colore, la forma, la profondità e il movimento). Questi sistemi funzionano in parallelo e, solo l’integrazione tra le diverse informazioni che essi forniscono, consentirà la perfetta percezione dell’oggetto stesso.

Il processo che sovrintende la visione è di conseguenza molto complesso. La luce infatti penetra  nell’occhio attraverso la cornea e la sua quantità è regolata dalla contrazione e dalla dilatazione della pupilla. Il cristallino consente di focalizzare la luce sulla retina, che è un sottile tessuto (circa 100-300 nano metri) che tappezza la superficie interna del globo oculare. La retina  è una membrana formata da  tre strati:

 ·        il primo contiene i fotorecettori: i coni e i bastoncelli (che trasformano le radiazioni luminose in percezioni visive attraverso le trasformazioni chimiche di una sostanza che “sbianca” quando è esposta alla luce);

·        il secondo strato comprende le cellule bipolari in connessione coi fotorecettori;

·        il terzo è formato da cellule gangliari che vanno a costituire il nervo ottico; quest’ultimo decorre poi all'interno della scatola cranica fino a raggiungere le aree visive della corteccia.

 

I fotorecettori producono differenti sostanze chimiche in relazioni alle radiazioni elettromagnetiche che ricevono come stimolo[5]. I coni permettono la visione del colore; quest’ultimo non è una caratteristica degli oggetti, ma è il complesso risultato dell’effetto che la luce ha sull’apparato percettivo[6]. La percezione che si ha dei colori dipende da tre parametri:

 ·        la tonalità che è specificata dalla lunghezza d’onda della luce,

·        la chiarezza che fa riferimento all’intensità del colore,

·        la saturazione che è la purezza del colore. Essa è riconducibile alla predominanza di una sola lunghezza d’onda nello stimolo. La maggior parte dei colori che si vedono è data da una sovrapposizione di onde di diversa lunghezza.

 

Molti studiosi (come ad esempio Isaac Newton (1642-1727), Thomas Young (1773-1829), James Maxwell (1831-1879), Herman von Helmholtz (1821-1894) e molti altri) si sono occupati, dal Seicento all’Ottocento, dei problemi connessi alla percezione del colore.

Tra le teorie elaborate nei diversi secoli di studio vi è quella dell’opponenza cromatica proposta dal fisiologo tedesco Ewald Hering (1834-1918) che ipotizzò l’esistenza di tre coppie di colori antagonisti: rosso-verde, blu-giallo, bianco-nero. Queste copie si distribuiscono nella retina in tre canali ad opponenza cromatica. Ad un livello di elaborazione successivo rispetto a quello dei coni, ci sarebbe quindi un canale specializzato per la percezione del rosso e alternativamente del verde, in modo tale che quando è percepito il colore rosso la percezione del verde è inibita. Lo stesso varrebbe per il canale sensibile alla coppia blu-giallo. Per quanto riguarda invece il canale bianco-nero, la sua attivazione dipenderebbe invece dall’intensità della stimolazione dei tre tipi di coni contemporaneamente. Le cellule ad opponenza cromatica semplice sono anche chiamate concentriche: ossia una cellula centro-rosso/sfondo-verde risponde in maniera maggiore ad una luce rossa mentre quella centro-verde/sfondo-rosso risponde massimamente alla luce verde. Le informazioni provenienti dai coni sensibili al colore blu sono trasmesse, invece, ad un diverso tipo di cellule dette cellule coestensive ad opponenza semplice.

Il fenomeno del contrasto cromatico simultaneo si osserva invece a livello dei margini della sagoma d’un oggetto. Un oggetto grigio, ad esempio, se è visto su uno sfondo verde, acquista una sfumatura di rosso; se invece è osservato su uno sfondo rosso acquista una sfumatura di verde.

Un’altra interessante teoria è stata formulata da Edwin H. Land (1909-1991). In questa teoria la percezione delle tinte non dipende dalle lunghezze d’onda da queste emesse, ma da una sorta di valutazione automatica fra la quantità di luce di un dato colore riflessa dall’oggetto, in rapporto alle quantità riflesse dalle superfici vicine. Secondo Land l’analisi  sarebbe compiuta in una qualche zona del cervello situata fra la retina e la corteccia.

Finora è stato descritto in che modo avviene la ricezione e la traduzione dell’energia da parte del sistema visivo. Per poter parlare di percezione, le informazioni raccolte dagli organi sensoriali devono essere in seguito organizzate e interpretate. Sono state anche in questo caso proposte diverse teorie con lo scopo di spiegare in che modo possa avvenire il riconoscimento di configurazioni caratteristiche. Tra quelle più note vi sono: la teoria delle sagome, la teoria dei prototipi e la teoria dell’analisi delle caratteristiche.

La teoria delle sagome afferma che l’informazione stimolo sia confrontata direttamente con copie in miniatura immagazzinate nel sistema di memoria. Questo principio risulta però antieconomico, infatti, per poter percepire tutti gli stimoli cui ogni individuo è continuamente esposto, si dovrebbero possedere infinite copie di riferimento. Inoltre non si spiega come le configurazioni possano essere percepite nonostante il cambiamento di alcuni loro parametri, come ad esempio la dimensione, il  colore e l’orientamento.

La teoria dei prototipi modifica l’ipotesi formulata dalla teoria delle sagome e afferma che ogni stimolo fa parte di una classe di altri stimoli con i quali condivide le caratteristiche che definiscono  quella classe. Secondo questa teoria il riconoscimento delle configurazioni si basa sul confronto con prototipi, vale a dire forme astratte che rappresentano gli elementi più rappresentativi della classe di stimoli cui la configurazione appartiene.

La teoria dell’analisi delle caratteristiche ipotizza invece che ogni forma complessa sia composta di elementi più semplice e che il processo di percezione inizi con l’estrapolazione delle caratteristiche dallo stimolo e prosegua con la combinazione delle varie caratteristiche in unità complesse che sono poi confrontate con quelle presenti nella memoria a lungo termine.

Queste tre teorie sono molto interessanti, è importante però notare che gli psicologi della Gestalt che hanno studiato l’importanza dell’organizzazione percettiva, ad esempio: Max Wertheimer (1880-1943), Wolfgang Kohler (1887-1967) e Kurt Koffka (1886-1941), siano tutti giunti alla conclusione che la percezione è un processo olistico in cui il tutto è più della somma dei singoli elementi.

 

3. Componenti caotiche e complesse nell’arte

 

Non è semplice stabilire una relazione tra i concetti di bellezza, ordine e complessità. E’ interessante però notare che nel 1930 il matematico George Birkhoff (1884-1944) tentò, attraverso una formula matematica,  di  “misurare” la bellezza. La relazione, molto semplice, era la seguente:

                                                    

dove M era la “misura estetica” (o bellezza); mentre O e C erano rispettivamente l’ordine e la complessità. Attraverso questa relazione Birkhoff cercava di stabilire una connessione tra i concetti di bellezza, ordine e complessità, ma l’arte viene considerata frutto della creatività umana e quest’ultima va  ben oltre una relazione matematica.

Molti artisti hanno però subito il fascino della complessità, della geometria non euclidea, della geometria frattale e del caos. Questa considerazione è rafforzata dal fatto  che esistono delle forme caotiche che sono ricorrenti in diverse culture e in diversi periodi storici.

Ad esempio, in molte incisioni rupestri sono presenti motivi che richiamano gli “attrattori” tipici delle forme caotiche; molto interessanti sono le incisioni ritrovate nella grotta di Djerat presso Tassili-n Ajjer (Algeria del Sud) risalente al 6000 a.C.  Si tratta di forme arcaiche che trovano una spiegazione nell’osservazione e nel tentativo di riproduzione della Natura.

Molti artisti, come Leonardo da Vinci (1452-1519) e Vincent Van Gogh (1853-1890), hanno riprodotto nelle loro opere i moti caotici presenti in natura. Particolarmente importanti sono gli studi svolti da Leonardo sul movimento delle acque.

L’arte orientale è ricca di opere che si ispirano alla complessità presente in natura; chiari esempi sono le xilografie: La grande onda (1831), Le cascate di Amida (1834-1835) e la Cascata Kirifuri al Monte Kurokami nella provincia di Shimotsuke  (1832), dell’artista giapponese Katsushika Hokusai (1760-1849).

 Anche nell’arte contemporanea si possono trovare molti riferimenti alla complessità. Alcune opere di Jackson Pollock (1912-1956), che è il rappresentante più emblematico dell’Action Painting, la corrente che rappresenta il contributo americano all’informale, potrebbero essere ad esempio interpretate utilizzando una chiave di lettura “caotico-frattale”. In particolare gli studi svolti di recente dal fisico Richard Taylor hanno dimostrato la complessità crescente nella produzione artistica di Pollock. Taylor, quando si trovò di fronte all’opera di Pollock intitolata Blue Poles: Number 11 (1952), gli venne spontaneo pensare ai frattali; infatti l’intreccio di linee, tracciate dall’artista sulla tela, rifletteva la caratteristica fondamentale del frattale: l’autosomiglianza. Taylor pensò che Pollock era giunto alla geometria frattale, grazie alla sua creatività, prima del matematico.

L’arte aveva anticipato la scienza; infatti Pollock dipingeva frattali circa 25 anni prima della loro scoperta nei fenomeni naturali. Per provarlo egli inserì una fotografia di una tela di Pollock nel computer e tentò un’analisi matematica, seguendo un procedimento identico a quello utilizzato per i frattali. Taylor, con i suoi colleghi, ha analizzato tutta la produzione artistica di Pollock tra gli anni 1943 e 1952, che è il periodo in cui prevale la tecnica del “dripping”, ossia delle “'tele gocciolate”: tele enormi, stese sul pavimento e sulle quali il colore veniva fatto gocciolare con pennelli o bastoncini, in modo da creare complessi grovigli di linee sovrapposte.

Il computer ha confermato l’ipotesi di Taylor, ossia che le “tele gocciolate” di Pollock sono frattali, dei quali è anche possibile calcolarne la dimensione. Le opere di Pollock sono state digitalizzate al computer. In seguito sono stati analizzati prima i vari strati di colore diverso, poi l’opera nella sua interezza, il dipinto in esame è stato coperto con un reticolo di celle quadrate identiche e si è poi proceduto alla valutazione delle qualità statistiche dello schema pittorico discriminando quali celle fossero occupate dal pigmento e quali no; riducendo il passo del reticolo si è scoperto che questo schema si conserva inalterato. Si è dimostrato che nei lavori di Pollock questa dimensione frattale, è cresciuta nel corso degli anni, via via che l’autore affinava la sua tecnica pittorica. Le dimensioni frattali sono differenti, si parte da un valore pari a 1,1 per arrivare ad un valore massimo di 1,9  nel 1950; per poi stabilizzarsi intorno a valori di 1,7. Il metodo di analisi sviluppato da Taylor, che si basa sulla determinazione della dimensione frattale come strumento per stabilire il grado di complessità dei quadri di Pollock, ha permesso di fornire una tecnica affidabile per riconoscere e distinguere i veri dalle riproduzioni false dei dipinti di quest’artista.

Arte e scienza hanno sempre avuto interessanti connessioni. Theodor Wiesengrund Adorno (1903-1969) affermava:

 La scienza è un’arte perché essa è una strategia di conoscenza così come lo è l’arte…

Non si dà una disgiunzione tra arte e scienza come credevano i fautori del sapere semplificato per i quali queste nozioni erano completamente antagoniste che si respingevano reciprocamente.

La scienza è divenuta con il tempo, è vero, sempre più un sapere ipotetico nei suoi fondamenti epistemici, tuttavia è un sapere (tra i pochi) che è stato capace di aprire all’uomo orizzonti di conoscenza immensi. L’arte è una poiesis declinata nella dimensione sensibile, che senza tuttavia perdere nulla della sua magia sensibile è capace di portare con sé (talvolta), di evocare, una dimensione epistemica non raggiungibile dalla scienza medesima. Semplicemente perché essa, la scienza, non la può far apparire alla sensibilità. La scienza e l’arte sono entrambe figure della verità. Forse le uniche verità, assieme a filosofia, accessibili all’uomo.

L’unione dei due saperi, quello della scienza e quello dell’arte, è rappresentata da ciò che Edmund Husserl ha chiamato nella sua 6 delle Ricerche Logiche, “l’intuizione categoriale”, ossia l’intuizione capace di coniugare insieme la dimensione sensibile e la dimensione intelligibile. In una parola: intelletto e sensibilità. Arte e scienza. Scienza e arte.

 

Ora la teoria del caos e la complessità introducono nuovi paradigmi anche in campo artistico.

 

4. Componenti caotiche e complesse nella produzione artistica di Attilio Taverna

 

Attilio Taverna è un artista che da decenni cerca di coniugare la scienza con l’arte, attraverso una provocazione intellettuale e artistica. Ad esempio, in relazione alla fisica quantistica, afferma:

 Come, se non per mezzo di un’esperienza estetica che si muova all’interno di una concezione di forma che interroga lo spazio tempo e la sua metrica segreta, si può immaginare, e dunque esperire, e dunque vedere, la natura formale dello spazio-tempo quadridimensionale?

 La complessità e la geometria frattale esercitano su di lui un grande fascino. Si possono infatti osservare delle componenti frattali in molte sue opere. Come lui stesso afferma:

 La mia pittura è essenzialmente un oggetto frattale. Anche se non di tipo tradizionale. In essa l’autosomiglianza è ricorrente a molti livelli. Soltanto che essa può apparire all’interno di una declinazione formale che vede strutturalmente connesse insieme sia la struttura granulare tetradica che la vibrazione ondulatoria.

Certo nel passato l’accento era posto più frequentemente sulla forma tetradica, granulare, ma era sempre presente, anche soltanto accennata magari, anche la forma ondulatoria. Il tutto assieme alla trasparenza percettiva e alla rottura della simmetria. Oggi, che la mia pittura si sta felicemente (credo) evolvendo verso una maggior accentuazione delle vibrazioni di stringa assieme ad una sintesi più sicura della forma tetradica e di quella ondulatoria e assieme anche ad una comprensione maggiore (spero) delle geometrie non commutative, appaiono visioni mai apparse prima che possono evocare, almeno a mio giudizio, una spazialità misteriosa di ordine forse multidimensionale assieme a delle idee che sono in linea diciamo così con ciò che la fisica contemporanea pensa della spazialità del reale.

 Una frattalità che l’artista concepisce in stretta correlazione con la complessità, in uno scenario che si potrebbe definire “ologrammatico”.

 

5. Conclusioni

 Per una conclusione del tutto ragionevole, potrebbe apparire logico affermare che, se si insegue fino ai suoi esiti estremi i volumi di senso indotti dalla dimensione semantica e concettuale del termine “Complessità”, si introduce il seguente paradosso: “la complessità può essere all’origine stessa delle teorie scientifiche”. E’ stato mostrato da Popper, Holton, Kuhn, Lakatos, Feyrabend che in ogni teoria scientifica vi è un nucleo “non scientifico”.

Karl Raimund Popper (1902-1994), logico ed epistemologo austriaco, ha evidenziato i presupposti metafisici esistenti in ogni teoria scientifica. Il fisico Gerald Holton (1922-) ha messo in luce l’importanza dei “themata”, ossia dei temi persistenti e persino ossessivi che muoverebbero le menti dei grandi scienziati. Il più consistente di questi temi, il “determinismo universale”, è ad un tempo sia un postulato metafisico sia un pensiero quasi irremovibile e ossessivamente persistente.

Il filosofo ungherese Imre Lakatos (1922- 1974) ha invece mostrato che all’interno di ciò che viene definito programma di ricerca, si trova sempre una “struttura concettualmente dura” di assunti fondamentali, condivisi da tutti i ricercatori e considerati immuni dalla confutazione. Questa sorta di “nocciolo duro” è circondato da una “cintura protettiva” di ipotesi ausiliari che sono confutabili e quindi adattabili alle prove empiriche accumulate nel corso della ricerca. Con questa teoria Lakatos ritenne di aver spiegato sia gli aspetti inerziali, sia quelli rivoluzionari della storia della scienza.

Infine lo storico e filosofo della scienza statunitense Thomas Kuhn (1922-1996), nel classico intitolato La struttura delle rivoluzioni scientifiche, ha affermato che le teorie scientifiche sono organizzate a partire da principi che non dipendono assolutamente all’esperienza, ossia i “paradigmi”. Come lui stesso afferma (1962, pp. 29-30 e 44):

In questo saggio, ‘scienza normale’ significa una ricerca stabilmente fondata su uno o più risultati raggiunti dalla scienza del passato, ai quali una particolare comunità scientifica, per un certo periodo di tempo, riconosce la capacità di costituire il fondamento della sua prassi ulteriore. […] La Fisica di Aristotele, l’Almagesto di Tolomeo, i Principia e l’Ottica di Newton, l’Elettricità di Franklin, la Chimica di Lavoisier e la Geologia di Lyell e molte altre opere servirono per un certo periodo di tempo a definire implicitamente i problemi e i metodi legittimi in un determinato campo di ricerca per numerose generazioni di scienziati. […]  D’ora in avanti, per indicare i risultati che hanno in comune queste due caratteristiche, userò il termine ‘paradigmi’, che ha una precisa relazione col termine ‘scienza normale’. […] Coloro la cui ricerca si basa sui paradigmi condivisi dalla comunità scientifica si impegnano ad osservare le stesse regole e gli stessi modelli nella loro attività scientifica.

Kuhn, inoltre ribadisce (1978, pp. 109-112, 139, 151, 179-183):

 

La transizione da un paradigma in crisi ad uno nuovo, dal quale possa emergere una nuova tradizione di scienza normale, è tutt’altro che un processo cumulativo, che si attui attraverso un’articolazione o un’estensione del vecchio paradigma. […]Questi esempi ci guidano verso il terzo e più fondamentale aspetto dell’incommensurabilità tra paradigmi in competizione. In una maniera che sono incapace di spiegare ulteriormente, i sostenitori di paradigmi opposti praticano i loro affari in mondi differenti. […] I due gruppi di scienziati vedono cose differenti quando guardano dallo stesso punto nella stessa direzione. Ciò però, vale la pena ripeterlo, non significa che essi possano vedere qualunque cosa piaccia loro. Entrambi guardano il mondo, e ciò che guardano non cambia. Ma in alcune aree essi vedono cose differenti, e le vedono in differenti relazioni tra loro. [...].Per la stessa ragione, prima che possano sperare di comunicare completamente, uno dei due gruppi deve far l’esperienza di quella conversione che abbiamo chiamato spostamento di paradigma. Proprio perché è un passaggio tra incommensurabili, il passaggio da un paradigma ad uno opposto non può essere realizzato con un passo alla volta, né imposto dalla logica o da un’esperienza neutrale. Come il riordinamento gestaltico, esso deve compiersi tutto in una volta (sebbene non necessariamente in un istante), oppure non si compirà affatto. […] Il trasferimento della fiducia da un paradigma a un altro è un’esperienza di conversione che non può essere imposta con la forza.

Da tutto ciò evince un paradosso sconcertante: la scienza si sviluppa non soltanto nonostante, ma grazie a ciò che in essa vi è di non scientifico. Specialmente l’arte. La ricerca e l’esperienza estetica di Taverna vanno esattamente in questa direzione.

 

 

6. Bibliografia

 

1.      AA.VV. Luce Spazio – Attilio Taverna, Fondazione Benzi Zecchini, 2004.

2.      Bohm D., Biederman C., Pilkkanen P., Bohm-Biederman Correspondence Creativity in Art and Science Vol 1,  Routledge, London, 1999.

3.      Bohm D., Peat F.D., Science, Order and Creativity, Routledge, London, 2000.

4.      Boncinelli E.,  Il cervello, la mente e l’anima, Ed. Mondadori, Milano, 1999.

5.      Cazzaniga M.,  La mente della Natura, Ed.  Garzanti, 1997.

6.      Comoretto G. (a cura di), L’universo olografico, reperito il 23 Dicembre 2005, sul sito Internet:

      http://ulisse.sissa.it/Answer.jsp?questionCod=71303179

7.      Eco, U., Storia della bellezza, Bompiani: Torino, 2002.

8.      Fine A. (2004), The Einstein-Podolsky-Rosen Argument in Quantum Theory, reperito il 27 Dicembre 2005 al sito Internet: http://plato.stanford.edu/entries/qt-epr/

9.      Flake G.W., The Computational Beauty of Nature,  The MIT Press, Cambridge,1998.

10.  Goethe J.W., La storia dei colori, Luni editrice, 1988.

11.  Gerald Holton G., “On the Role of Themata in Scientific Thought” Science, New Series, Volume 188, Issue 4186 Apr. 25, 1975, 328-334.

12.  Hubel D.,  Occhio, cervello e visione, Zanichelli, Bologna, 1998.

13.  Itten J., Arte del colore, il Saggiatore, 1982.

14.  Kuhn T., La struttura delle rivoluzioni scientifiche, Einaudi, Torino, 1962.

15.  Kuhn T., La struttura delle rivoluzioni scientifiche, Einaudi, Torino, 1978.

16.  Lakatos I. e Musgrave A. (a cura di), Critica e crescita della conoscenza, Feltrinelli, Milano, 1976.

17.  Maffei L., Fiorentini A., Arte e cervello, Zanichelli, Bologna, 1996.

18.  Mecacci L., Zani A.,  Teorie del cervello, Loescher, 1982.

19.  Mecacci L., Identikit del cervello, Laterza, Roma-Bari, 1987.

20.  Menini S.,  Sensazione e percezione visiva, reperito il 2 Agosto 2005 sul sito Internet:

      http://www.hyperlabs.net/ergonomia/menini/percezione/

21.  Pierantoni R., L’occhio e l’idea, fisiologia e storia della visione, Bollati Boringhieri, Torino, 1981.

22.  Popper K.R., La logica della scoperta scientifica, Einaudi, Torino, 1970.

23.  Sala N., Cappellato G., Viaggio matematico nell’arte e nell’architettura, Franco Angeli, Milano, 2003.

24.  Sala N., Cappellato G., Architetture della complessità. La geometria frattale tra arte, architettura e territorio, Franco Angeli, Milano, 2004.

25.  Selleri F., Quantum Mechanics Versus Local Realism: The Einstein-Podolsky-Rosen Paradox, Plenum Press, New York, 1988

26.  Talbot M., Tutto è uno. L’ipotesi di una scienza olografica, Apogeo, Milano, 2004.

27.  Zeki S., L’elaborazione dell’immagine visiva, Le Scienze, n, 291, pp.37-44, 1992.

 

 

 



[1] Il Dizionario della lingua italiana, Istituto Geografico De Agostini, Novara, 1995.

[2] Il termine ologramma deriva dal greco holos, che significa “intero”; e gramma, che vuol dire “messaggio”.

 

[3] Dalla iniziali dei cognomi dei tre scienziati: Einstein, Podolsky e Rosen.

[4] David Bohm, grazie alla “teoria olografica dell’universo” riuscì a fornire una spiegazione alquanto originale del Teorema di Bell o diseguaglianza di Bell. Questo teorema riguarda la connessione non locale (quindi un’azione istantanea a distanza) tra particelle subatomiche inizialmente correlate tra loro (fenomeno chiamato “entanglement quantistico”).

[5] I coni producono infatti la iodopsina e sono responsabili della visione diurna, della percezione dei colori, dei dettagli e della nitidezza dei contrasti; mentre i bastoncelli producono la rodopsina e forniscono all’apparato visivo la possibilità di elaborare informazioni anche in condizioni di scarsa illuminazione.

[6] Il colore può essere definito come la percezione sensoriale associata alle diverse lunghezze d'onda della radiazione elettromagnetica nello spettro del visibile. La visione del colore rappresenta un fenomeno complesso per il quale intervengono tre principali fattori, la radiazione luminosa; la composizione chimica e la struttura della materia e  le relazioni occhio/cervello.

Homepage gratis da Beepworld
 
L'autore di questa pagina è responsabile per il contenuto in modo esclusivo!
Per contattarlo utilizza questo form!