L'interfaccia del computer e la fenomenologia

L'interfaccia del computer è l'apparenza.

Essa costituisce l'immagine e l'oggetto visivo nella nostra relazione con il computer.

Molto di quello che è, non appare. Infatti la maggior parte del codice di programmazione ha scopi come quello del trasferimento dati, della manipolazione dati, degli effetti dinamici, ecc.

Quel che vediamo sul nostro dekstop sono in prevalenza icone. L'apparenza nel computer ha questa natura sostanzialmente iconica.

La mia intenzione è di studiare l'interfaccia nella relazione utente-interfaccia, dunque di studiare questo tema dell'informatica attraverso una branca filosofica come la fenomenologia.

La fenomenologia nasce in Germania con il filosofo Edmund Husserl.

La fenomenologia vuole essere la prima scienza da un punto di vista della prima persona, ossia senza oggettivare il soggetto.

La fenomenologia studia la coscienza, non cercando di capire se la coscienza sia qualcosa che emerge dal cervello, se sia immateriale o sia una semplice illusione, ma cercando di comprenderla come strumento attraverso il quale il soggetto si relaziona al mondo.

In quanto siamo coscienti di quello che vediamo, anche sullo schermo del computer, la nostra vita è una corrente di atti di coscienza con una struttura precisa.

La fenomenologia studia dunque l'esperienza e le sue strutture.

Essa vuole porsi da un punto di vista pre-categoriale. Ossia il punto di vista del soggetto che si relaziona con un mondo di cose, ancora prima della loro concettualizzazione.

Potrei non sapere nulla di programmazione, non mi serve questo per avere determinate esperienze attraverso lo schermo di un computer.

L'esperienza precede la conoscenza, infatti se non potessi essere cosciente, non potrei nemmeno imparare codici.

L'atto di coscienza secondo la fenomenologia segue la struttura noema/noesi.

La noesi è la tipologia dell'atto, ossia se si tratta di una percezione, di un giudizio, di un desiderio, ecc.

Il noema è l'oggetto per come è dato al soggetto che si relaziona ad esso.

Quando vedo una sedia, per esempio, ne vedo un lato, ma non potrò mai abbracciare con un solo colpo d'occhio l'intera sedia.

La fenomenologia comprende quindi che esiste qualcosa che è oggetto della coscienza, non importa che si tratti di un'allucinazione o di un'esperienza veridica.

Se sono cosciente di qualcosa, esiste qualcosa di cui sono cosciente.

Nel caso in cui ho a che fare con oggetti reali, oltre al mero noema, esiste un oggetto trascendente i miei vissuti.

La fenomenologia, attraverso una ricerca dell'eidos, mira alla scoperta delle strutture invarianti nell'esperienza, cose come "il fatto che non esiste colore senza estensione" o "il fatto che non c'è movimento senza corpo mosso".

Il soggetto ha un'esperienza cosciente del computer attraverso diversi mezzi:

con gli occhi vede lo schermo, con le mani usa la tastiera e il mouse, oppure tocca le icone sullo schermo attraverso un touchscreen, un pennino, ecc.

Aden Evens
Aden Evens

Al termine del secondo capitolo, prima del terzo, il quale è interamente dedicato all'interfaccia, Aden Evens tratta il tema delle icone, cercando di coglierne la natura, sfruttando il linguaggio concettuale del filosofo americano Peirce.

Quella del computer è una vera iconografia e le icone indicano i comportamenti possibili di un oggetto digitale.

Evens spiega che l'utente del computer si trova sempre preso tra due mondi:

l'attuale e il digitale.

Il digitale si riferisce al comportamento assegnato agli oggetti digitali.

L'attuale, invece, è il regno delle icone.

Evens interpreta le icone come dei segni, alle volte da intendere come indici, altre volte come simboli. L'indice è un segno che indica la presenza di qualcos'altro.

Il fumo indica che qualcosa che brucia, in questo senso il fumo è un indice.

Come indici le icone rimandano alla presenza di un codice che non appare, rimandano ad un insieme di possibilità, di comportamenti di oggetti, di operazioni possibili.

Aden Evens divide il terzo capitolo di Logic of the digital in tre parti:

input, mediation, output. Il codice binario sta tra l'input e l'output.

L'interfaccia, sostiene Evens, è la pellicola sottile o il medio che divide il mondo umano da quello del codice binario, l'uomo dal regno del digitale.

Sul lato input troviamo strumenti come il mouse e la tastiera. Anche il mouse e la tastiera seguono uno schema binario:

o il tasto è premuto (1) oppure non lo è (0).

Tuttavia è possibile, attraverso la fenomenologia delle emozioni, estendere le possibilità di queste operazioni del premere e il non premere ben oltre il semplice dualismo del binario.

A seconda dello stato d'animo della persona, un tasto viene premuto più o meno violentemente.

Capita alle volte che il computer si blocca, non va più avanti e in vano premiamo energicamente i tasti del mouse per ottenere qualche cambiamento.

Il problema di tutti questi modi di premere i tasti è che spesso sono del tutto inefficaci e che il computer è indifferente a queste variazioni emozionali:

esso considera solo due casi (premuto/non premuto).

Interessante è notare la relazione tra il premere e il desiderio in Evens. Il tasto che premiamo indica un nostro desiderio di ottenere qualcosa.

La distanza tra il desiderio e il suo soddisfacimento è segnata da un semplice click.

In generale in informatica esistono due relazioni principali con il computer:

la prima è quella del comando e la seconda quella dell'interrogazione.

Da un lato chiediamo al computer di eseguire delle cose, dunque gli diamo dei comandi, anche semplicemente premendo "invio".

Dall'altro usiamo il computer per chiedergli delle cose e ottenere delle risposte.

In effetti Alan Turing ha pensato il computer come uno strumento per risolvere un problema logico-matematico, dunque come macchina da interrogare.

Vediamo un po' meglio questi due strumenti che usiamo per relazionarci con il computer:

il mouse e la tastiera.

Di mouse ne esistono principalmente due tipi: il mouse meccanico e il mouse ottico.

Oggi il più usato è chiaramente il mouse ottico.

Il mouse meccanico rileva i movimenti grazie ad una sfera che comunica con due rotelle: una per le x e l'altra per le y. Queste due rotelle comunicano con un chip e quest'ultimo trasforma i segnali analogici in segnali digitali.

Il mouse ottico, invece, funziona con dei led rossi posti nella parte inferiore del mouse. Il mouse rileva lo spostamento sfruttando le immagini della superficie su cui si trova. Se sollevate il mouse da terra, ecco che, per quanto provate ad agitarlo, esso non produce movimenti sul dekstop.

I mouse in generale hanno due tasti: uno destro e uno sinistro.

Quello destro ci permette di cliccare, per esempio per aprire un programma. Quello sinistro serve per far comparire una serie di opzioni, per esempio la possibilità di incollare, tagliare o copiare dei caratteri.

Molti mouse oggi hanno una rotella centrale che permette di scorrere verticalmente su una pagina o attuare degli zoom.

La tastiera è composta da 101/102 tasti ed è suddivisa in aree:

  • Tasti alfanumerici: tutti i caratteri come le lettere dell'alfabeto e i numeri che compaiono sopra di essi.
  • Tasti di funzione: tutti quei tasti che incominciano per "F" e hanno un numero assegnato, tasti a cui sono associate delle funzioni specifiche.
  • Tastierino numerico: creato per le operazioni matematiche come somma, addizione, moltiplicazione e divisione. Usato anche per far comparire certi caratteri speciali, se combinato con il tasto Alt.
  • Le freccette: le frecce, così come i tasti sopra stanti, servono per muovere il cursore.

Il mouse e la tastiera possono comunicare con il computer in due modi: o wireless con il bluetooth o con un cavo USB. Il passaggio successivo, nota Evens, sarà quello di smaterializzare tutto, di creare delle tastiere a laser. La tastiera, se ci pensate, già sui tablet non è più un pezzo fisico, ma è diventata parte integrante dell'interfaccia. Al momento quando si preme un tasto semplicemente si dal via al flusso di corrente elettrica come input, in un futuro le tastiere potranno produrre delle sensazioni al soggetto che le preme.

Capire la fenomenologia del soggetto che si relaziona con il computer, la sua esperienza, significa studiare anche la posizione che assume quando si relaziona con il computer.

Ci mettiamo in avanti, con la schiena un po' ricurva, guardiamo fissi lo schermo e premiamo i tasti della tastiera o del mouse. Esiste come una dissociazione, osserva Evens, tra il toccare e il vedere in tutto questo.

Noi osserviamo, ma se siamo bravi nel battere sulla tastiera, non abbiamo affatto bisogno di guardare i tasti, possiamo farlo in maniera del tutto automatica. In questo modo gli occhi non guardano le mani , ma sono sempre attaccati allo schermo.

In questo studio fenomenologico Evens cita il famoso filosofo francese Merleau Ponty.

Ponty ha scritto un'opera famosa dal titolo: La fenomenologia della percezione.

Ponty sostiene che il nostro corpo ha due aspetti:

uno passivo, mera materia;

un altro virtuale, ossia un corpo vissuto e attivo.

Quando noi tocchiamo un oggetto, sostiene Ponty, non solo tocchiamo l'oggetto, ma siamo sempre anche toccati dall'oggetto.

Questa cosa, osserva Evens, è del tutto assente in informatica. Se tocco le icone sul touchscreen, non sento l'icona e non sono toccato dall'icona.

Il corpo virtuale rappresenta tutto quell'insieme di vissuti che non può essermi mai semplicemente restituito dal corpo organico come soggetto passivo.

Per capirci meglio: Sartre sosteneva che l'occhio morto non potrà mai rendere conto della visibilità.

I dispositivi digitali non offrono nessuna resistenza al tatto.

In questo modo la nostra esperienza di queste icone rimane un'esperienza di segni lontani che puntano e indicano oggetti digitali che mai incontriamo.

Il digitale e le possibilità dell'oggetto eccedono l'apparenza, ma del digitale non facciamo esperienza diretta e non è possibile farne esperienza diretta perché la mediazione è necessaria per l'esperienza nel digitale.

La tecnologia tuttavia si è già abbastanza evoluta. Oggi, per esempio, esistono molti tablet con un digitalizzatore attivo che permette ad un pennino di poter scrivere sullo schermo.

Questi pennini sono particolari perché, se noi scriviamo premendo maggiormente, possiamo ottenere linee più spesse, mentre se passiamo con la penna sullo schermo leggermente, le linee saranno meno spesse.

Un caso di penne di questo tipo sono le penne Wacom.

Tuttavia, anche con questo sistema, il soggetto non sperimenta nessun tipo di resistenza. Ben diversa è l'esperienza dello scrivere con la penna ad inchiostro, laddove ci si accorge benissimo se si sta scrivendo su carta o su cartoncino.

Sebbene gli effetti di un digitalizzatore Wacom sono molto belli e permettono di usare una penna come la usiamo normalmente su carta, l'esperienza tattile dell'utente rimane comunque povera.

Per avere un'esperienza tattile molto più ricca bisognerebbe creare una specie di simulazione, un po' come si fa con i joystick della Playstation.

Prima di attuare questo rimangono un sacco di domande interessanti sulla possibile realizzazione di una tale simulazione. Un esempio di Evens: quanto dovrebbe pesare un'icona? In fondo la resistenza dell'oggetto dipende anche dal peso. Al momento tutti questi elementi hanno una lunghezza e una larghezza, ma non hanno un peso.

Per ora l'esperienza tattile rimane ancora povera, ma ci sono un sacco di nuovi approcci con il digitale. Per esempio si sta diffondendo l'idea di attaccare direttamente il cellulare alla testa come se lo schermo fosse un paio di occhiali che ci mostrano un'altra realtà. Esistono già i Google glass, ma c'è anche Google talk.

La voce, la vista, sono tutti canali attraverso i quali facciamo esperienza.

Quel che possiamo immaginarci è che il mondo digitale interagirà sempre di più con i nostri sensi.

Arriverà un giorno in cui questa tecnologia sarà nel nostro corpo. Qualcuno già immagina visioni apocalittiche di uomini con gli smartphone attaccati agli occhi che sbattono ovunque come le mosche contro la finestra perché sono immersi nel mondo digitale e non sono più tra noi.

Su questo tema della sensibilità e l'iterazione dei soggetti con la realtà digitale vorrei tornare più avanti.

Infatti Evens prosegue il discorso avendo sempre per oggetto quel mondo piatto delle icone dell'interfaccia del computer. Egli non menziona l'evoluzione 3D che potrebbe avere questo mondo digitale. Piuttosto si concentra sul GUI (Guider User Interface).

Nel 1984 nasce il GUI per Machintosh.

L'interfaccia, così come la vediamo, è nata con lo scopo di rendere accessibile il computer a tutti, di renderlo intuitivo.

Per fare questo ci si è ispirati a lavori di psicologi come Jerome Bruner e Jean Piaget. Questi sostenevano che la mentalità iconica è tipica dell'uomo nell'infanzia, ossia che è un modo semplice di pensare adottato dai bambini.

Sappiamo tutti che se un bambino arriva a comprendere qualcosa con certi mezzi, allora questi mezzi rendono l'apprendimento più veloce ed intuitivo.

Questo non vuol dire che sia stato semplice per chiunque apprendere come si usa un computer, tuttavia con le icone e l'interfaccia si intendeva costruire una realtà che fosse più vicina a quella umana.

Spesso le icone rappresentano la funzione del programma. Ad esempio, se vedo l'icona di MyPaint, osservo una tela con un pennello. Infatti si tratta di un programma di grafica per il disegno.

Per rendere meglio l'idea dell'estrema intuitività dell'interfaccia, rispetto ad altri sistemi, vediamo che tipo di operazioni dovremmo fare se non avessimo quelle icone.

A differenza di Windows o Macintosh, in un sistema operativo come Linux, molte delle operazioni sono eseguite da terminale.

Usare il terminale offre molti vantaggi perché ci permette di capire cosa sta facendo il computer mentre esegue delle operazioni, come per esempio lo scaricare dei pacchetti.

Tuttavia questo implica che noi dobbiamo capire come fare a dare dei comandi da terminale e dobbiamo saper leggere quel codice. Come linguaggio per il terminale Linux usa Bash.

Linux è un mondo complesso che comprende vari sistemi operativi come Ubuntu, Debian, CrunchBang, ecc.

Molte operazioni che si compiono su questi sistemi operativi richiedono la conoscenza del terminale.

Per capire un po' meglio la differenza, se voglio andare sul Browser ho due opzioni su Ubuntu:

1 Premo l'icona del Browser (es. Firefox) e il Browser si apre.
2 Apro il terminale, dopo il simbolo "$" scrivo il nome del Browser (es. Firefox), il terminale esegue l'operazione e nel frattempo mi appare tutto un codice di operazioni che ha eseguito. Ora posso capire cosa sta facendo il computer nell'eseguire quel compito.

Problema: se chiudo il terminale, chiudo anche tutti i programmi che ho aperto da terminale.

Con il terminale potete cercare un sacco di informazioni sul computer, capire dove si trovano certi file, installare programmi o pacchetti, ecc.

Su Windows molte di queste cose si fanno tranquillamente senza terminale, in Linux non è sempre così. Per installare un programma bisogna usare il terminale e scrivere dei comandi, comandi come "apt-get install".

In pratica il GUI ha reso molto più accessibile il computer.

Il GUI si basa sulla struttura WIMP (Windows, Icons, Menus, Pointing). Con questo sistema di icone riconosciamo intuitivamente i programmi, clicchiamo con tasto sinistro se vogliamo aprirli, oppure con tasto destro se vogliamo compiere altre operazioni come incollare, tagliare, conosce le proprietà, ecc. Ora tutti possono avere ed usare un computer, il problema è che la maggioranza delle persone ha una conoscenza del computer che si ferma semplicemente al fatto di comprendere l'uso di programmi come Word, Excel, Powerpoint, andare su internet, scrivere una mail e postare sui social.

Non penso che l'alfabetizzazione informatica abbia raggiunto grandissimi risultati.

Molti non sanno nulla sul reale funzionamento del computer, su come funziona il codice binario, i calcolatori, gli algoritmi o i diagrammi di flusso.

Molto spesso gli utenti dei computer non hanno alcuna conoscenza di programmazione. Al contrario, sarebbe molto utile che si sapesse come sono stati costruiti i programmi che usiamo, ma quello che capita è che spesso abbiamo nelle mani delle tecnologie che non sappiamo nemmeno costruire e non conosciamo davvero fino in fondo.

L'interfaccia limita l'esperienza dell'utente ad una realtà completamente bidimensionale o 2D.

La bidimensionalità è spiegata da Evens a partire dal fatto che l'interfaccia presenta l'informazione in maniera astratta, testuale e strutturale. Nel quarto capitolo, tuttavia, Evens riconosce che la direzione è un'altra: è la VR (Virtual Reality).

La realtà virtuale è il progetto di un mondo simulato del tutto indistinguibile dal mondo reale. In questo mondo il soggetto eliminerà ogni mediazione con il digitale e il suo desiderio diventerà libero.

Evens dimentica di sottolineare questo uso improprio del termine "virtuale" in informatica. In realtà, per come lo hanno pensato i filosofi, il virtuale non centra nulla con una realtà simulata.

L'informatica ha fatto del concetto di virtuale qualcosa di sterile: la riproduzione della realtà attuale o il doppio dell'attuale.

Il termine virtuale va ricondotto al filosofo Bergson, con il quale egli si riferiva alla durata, ossia al tempo della coscienza e della vita.

Il termine è stato successivamente ripreso da Ponty e da Deleuze. Il primo lo usava per riferirsi ad un corpo come soggetto di vissuti, il secondo lo usava per riferirsi al processo attraverso il quale si forma l'individuo.

Nel caso di Deleuze il virtuale indica le trasformazioni possibili di un certo ente. Questa è più o meno l'accezione del termine in Manuel De Landa. In Levi Bryant, invece, il virtuale non è più processo, ma l'insieme dei poteri di un oggetto.

Stando al concetto di "digitale" che ha in mente Evens, sembra sussistere una certa vicinanza con il virtuale di Bryant, ma certamente il virtuale non ha nulla a che vedere con una realtà simulata perché il virtuale è essenzialmente il produttivo, mentre la simulazione è il riproduttivo.

Il mio discorso sulla fenomenologia non può finire qua.

Ho detto che la fenomenologia qui ha una sola direzione: utente-macchina.

Infatti i computer al momento non hanno una coscienza e oltretutto molti filosofi sostengono che il computer non ha intenzionalità (es. John Searle e Hubert Dreyfus).

L'intenzionalità è la capacità di un atto vissuto di riferirsi a qualcosa.

Per esempio la mia percezione dell'albero è a proposito di un certo albero. L'intenzionalità, chiaramente richiede l'attenzione.

Tuttavia, c'è un altro aspetto interessante: fino a che parliamo di un mondo 2D non abbiamo esperienza, per dirla con Husserl, di differenti adombramenti dello stesso oggetto.

L'adombramento indica quando percepiamo un oggetto da una certa angolazione. Le icone sul dekstop non hanno un retro. Per questo credo sia importante trattare ora del tema della realtà 3D, che sarà sicuramente l'evoluzione successiva.

Per studiare il 3D farò riferimento ad un programma di grafica open source come Blender.

Con Blender si possono fare davvero tantissime cose: fare un film, costruire personaggi e scenari 3d, fare grafica per videogame, costruire modelli per stampanti 3D.

Ovviamente per usare certe funzioni bisogna avere una buona scheda grafica, altrimenti non si riesce a sfruttarlo davvero. Per fare un film intero, invece, ci vogliono computer molto potenti che non sono alla portata quasi di nessuno.

Tuttavia usarlo, nonostante tutto, può essere davvero divertente.

Con un programma di grafica 3D tutto quello che abbiamo immaginato ora prende realtà.

Tutti i paesaggi dei nostri sogni potrebbero essere ricreati con questo programma. Ovviamente non è semplice imparare a fare molte di quelle cose complesse che ho appena menzionato. La cosa più semplice che si fa all'inizio è cercare di riprodurre qualcosa che conosciamo bene, per esempio la stanza in cui ci troviamo in questo momento.

Quando aprite Blender vi trovate una schermata centrale con un cubo, un piano, tre frecce (x, y e z), una luce e una telecamera.

Nei programmi di grafica 3D si costruiscono gli oggetti il più delle volte manipolando il cubo, sezionandolo, estrudendolo, piegandolo, ecc.

Possiamo osservare la scena in Blender da differenti angolazioni, muovendoci con i tasti del tastierino numerico.

Inoltre possiamo, premendo “z”, vedere la struttura del nostro oggetto, dunque vedere attraverso l'oggetto. In generale Blender funziona molto con i tasti della tastiera, si tratta solo di conoscere le combinazioni giuste per compiere le operazioni giuste. Per esempio con “s” si ingrandisce il cubo, mentre con “r” lo si fa ruotare.

Esistono due modalità principali di utilizzo rispetto agli oggetti come il cubo:

l'object mode; l'edit mode.

Per modificare l'oggetto, estrudendolo, sezionandolo e piegandolo, bisogna lavorare in edit mode. In edit mode, usando il tasto “e” è possibile estrudere una delle facce dell'oggetto, dunque allungare l'oggetto, in questo caso il cubo.

Con questa semplice mossa possiamo incominciare a costruire una scala semplicemente allungando una facciata laterale del cubo, poi una sopra, poi due laterali e così via. Oppure, usando crtl + r, è possibile tagliare una parte del cubo di nostro gradimento.

Usando questa operazione un po' di volte, dopo aver allungato il cubo, estrudendo le parti necessarie, possiamo creare un semplice tavolo. Ma con le stesse operazioni possiamo incominciare a creare la maggior parte degli oggetti che troviamo nella nostra stanza: scaffali, sedie, poltrone, ecc.

Un esercizio bello: costruire una torre.

1 Prendete un cilindro.

2 Allungate il cilindro premendo “s” e poi “z”.

3 Andate sulla base superiore del cilindro, selezionate la facciata circolare e premete “e” poi “invio” e ancora “s”. In questo modo potete rimpicciolire tutto verso l'interno, ottenendo un cerchio più piccolo circondato da un altro perimetro diviso in tante sezioni.

4 Selezionate uno sì e uno no con shift gli spicchi ed estrudeteli con “e” portandoli verso l'alto.

5 Tagliando prima il cilindro con crtl + r con dei cerchi, è possibile togliere delle facce per cercare di simulare delle feritoie o per creare una specie di porta.

Avrete una torre con dei semplici merli e qualche feritoia. Andando sui materiali potrete assegnare un colore all'oggetto, oppure potete aggiungere una texture che rappresenti le pietre di cui la torre è composta.

Il bello di Blender è che ci permette proprio di lavorare sui materiali, possiamo assegnare colori specifici ad un oggetto o delle texture.

Una texture è un'immagine che rappresenta il materiale, per esempio il legno, la pietra, la stoffa, ecc.

Lavorando con le curve si possono creare linee di base per un sacco di oggetti come dei bicchieri, basta semplicemente usare qualche strumento come “screw” che ruota di 360° gradi la nostra curva seguendo uno degli assi (x, y o z).

Le persone davvero brave con questi programmi costruiscono interi paesaggi medioevali dal nulla, con castelli, boschi, piccoli villaggi, abitanti, soldati, ecc.

Con il redering fotorealistico le nostre produzioni diventano sempre più vicine agli oggetti del mondo in cui viviamo, sempre più reali.

Se vi dicessi che le immagini dell'Ikea, quelle delle stanze con tutti quei bei mobili, sono fatti con programmi 3D come questo, ci credereste?

Da tutto quello che ho detto si può convenire che la fenomenologia troverebbe nell'informatica un nuovo campo con nuove sfide.

Spesso, ad esempio, si è usato la fenomenologia per difendere posizioni sostanzialmente realiste, dicendo che, sebbene la fenomenologia studia l'ente in quanto si dà ad una coscienza, il vissuto ci mostra che l'oggetto è sempre irriducibile alla componente data alla coscienza.

Cosa dovrebbe dire la fenomenologia di fronte ad una realtà 3D con tanto di sensazioni simulate? Abbiamo ora una tecnofenomenologia come branca della tecnofilosofia.