L’inefficienza dell’informatica

Virtualizzare. Rinunciare alla carta. Ridurre gli spostamenti fisici di cose e persone. L’informatica è pubblicizzata ovunque come un mezzo per ridurre l’impatto ambientale delle attività umane. Virtuale uguale ecologico nella vulgata ma… C’è un ma, come sempre. Computer, telefonini e server consumano tanta energia – sempre di più, fino al 5% del consumo elettrico complessivo negli USA – e generano tanto calore.

Al punto che l’impatto ambientale delle attività “informatiche” in seso lato sta diventando rilevante. Insomma, anche la nostra amata connessione globale ha il suo impatto ecologico globale. Quanti grammi di CO2 costa ogni minuto di svago su Candy Crush? O ogni post condiviso sui social? Moltiplichiamolo poi per milioni, anzi per miliardi.

Cosa fare? La tecnologia rende l’elettronica più efficienti, bisogna fare passi avanti ma anche lavorare sul software: la maggior parte di quello attuale è altamente inefficiente, gonfio e lento, fatto di strati su strati di codice mai aggiornato o veramente verificato.

Il web è in uno stato simile: i siti diventano sempre più pesanti a causa di pubblicità, video non richiesti, informazioni d’ogni tipo trasmesse da e verso l’utente o scambiate fa nodi e server diversi, per cui anche con una rete veloce è necessario attendere, per caricare un’informazione, quasi lo stesso tempo che era necessario con connessioni di vecchia generazione (oltre a consumare energia ad ogni passaggio).

Finora l’inefficienza del software è stata mascherata dall’evoluzione dell’hardware. Processori sempre più veloci, assieme a memorie, dischi e schede grafiche di prestazioni crescenti, hanno consentito di mascherare la lentezza di programmi costruiti assemblando pezzi e aggiungendo funzioni, con minima cura della piena integrazione e il solo obiettivo di stupire l’utilizzatore e arrivare sul mercato prima della concorrenza.

Sono uno di quelli che pensano che un vero progresso dell’informatica possa venire ripensando i programmi che utilizziamo, cominciando con i sistemi operativi e proseguendo con gli applicativi d’ogni genere. (E stiamo diventando lentamente più numerosi ad avere un’opinione di questo tipo). Più sostanza e meno apparenza, più efficienza e stabilità a costo di qualche funzione in meno e qualche attesa in più per la nuova, magica versione.

Se l’evoluzione dell’hardware dovesse rallentare, diventerebbe prioritario mettere mano al software, per ottenere progressi importanti sulle prestazioni. L’efficienza, poi, è un obiettivo fondamentale: non possiamo permetterci di dissipare energia in cicli inutili, il riscaldamento globale è una realtà e ogni ricerca sul web, ogni post, ogni “mi piace” o faccina sorridente, per non parlare delle infinite attività ad alto consumo di CPU, aggiungono grammi di CO2 all’ambiente (e non pochi).

C’è probabilmente un problema di maturità del settore industriale: la vendita dei computer fissi è in declino, quella di portatili e tablet quasi stabile e solo quella dei telefonini continua a crescere: di fatto è l’unico settore in cui il consumatore si sente ancora invogliato a provare il “nuovo” e si sente limitato dal “vecchio” di appena uno o due anni. Ci avviciniamo forse alla fine della fase di “boom” e, a meno di innovazioni tecnologiche rivoluzionarie (sempre possibili), procederemo in una fase di consolidamento e ottimizzazione, un po’ come è accaduto per l’industria dell’automobile. Ma, in ogni caso, abbiamo bisogno di rendere “verde” anche l’attività umana all’avanguardia per definizione: quella virtuale! E poi, l’utilizzo dovrebbe diventare più consapevole e “educato”.

Mode all’orecchio e non solo

cablesLa tecnologia genera mode che, viste da lontano, sembrano un po’ ridicole. Da lontano intendo dopo un po’ di tempo, ed alle volte basta qualche mese. E’ passata da un pezzo l’epoca in cui bisognava essere “wired”, connessi via cavo al resto del mondo. Oggi tutto dev’essere “wireless”, compresi i caricatori. Una volta faceva figo far ammiccare l’antenna del cellulare dal taschino della giacca, per dimostrare di averlo. Era si un po’ tamarro, ma in quanti resistevano alla tentazione, dopo aver speso svariate centinaia di migliaia di lire per un telefonone a forma di mattone? Poi i telefonini hanno perso l’antenna ed hanno iniziato a dimagrire. Si diffusero, i prezzi scesero e allora non bastava averne uno: bisognava che fosse l’ultimo modello, minuscolo. Si diceva che il cellulare fosse l’unica cosa su cui gli uomini facessero a gara a chi l’aveva più piccolo… Anche quella, in fondo, era un’affermazione di supremazia, di potersi permettere qualcosa che gli altri no. Qualche tempo fa andava di moda parlare da solo, perché il cellulare si doveva usare con l’auricolare, rigorosamente wireless se si voleva veramente essere trendy. Il telefono doveva essere invisibile, sommerso in una tasca o una borsa. Bisognava parlare a mani libere, con disinvoltura, come se si avesse l’interlocutore davanti, ma ad alta voce, in modo che si capisse quello che si stava facendo. Le onde elettromagnetiche fanno male – forse, magari, si dice ma non è mai stato dimostrato in modo significante – ma non quelle dell’auricolare, o, almeno, molto meno. Poi sono arrivati gli smartphone e i touchscreen ed una nuova inversione di tendenza. Oggi andiamo in giro con dei battiscopa all’orecchio ed ingrassiamo lo schermo mentre parlaiamo. Qualsiasi cosa deve essere fotografata con il furbofono. Mi raccomando: non con una macchina fotografica, che sa di vecchio, ed il risultato di corsa sui social. Il rumore finto dello scatto si usa sempre meno e mi pare giusto. C’è chi considera figo fotografare con i tablet, come se lo schermo più grande rendesse migliori le foto scattate con una lente piccolissima davanti ad un sensore di qualche millimetro quadrato, e, come ha detto qualcuno, sembra che vadano in giro appendendo quadri. Di questo passo, i telefoni diventeranno così grandi che sarà necessario aggiungerci un manico per impugnarli. Allora si che parleremo tutti nelle padelle. A meno che non abbia ragione Google.

L’antichità delle novità informatiche

Il mio primo processore

Il mio primo processore

Tutte le novità hanno degli antenati. E’ una constatazione che non toglie nulla a chi è riuscito a realizzare prodotti di successo che sono diventati di uso comune. Ecco qualche esempio in informatica.

Il tablet così come noi lo conosciamo è “anticipato” in questo documento di quarant’anni fa: agosto 1972. Non è un progetto di dettaglio ma la qualità delle intuizioni ha del visionario, considerato il livello tecnologico dei computer contemporanei. L’obiettivo è un computer per i “bambini di tutte le età”, adatto ad apprendere e ad essere impiegato per le attività quotidiane: un’illuminazione.

L’antenato di Google Street View risale invece al 1981. L’ “esperienza virtuale” si limita ad un prototipo che riproduce un piccolo tratto di strada, per i limiti di capacità di calcolo e memoria dell’epoca, ma le idee di base ci sono tutte!

Blit! Esperimento di interfaccia grafica per computer del 1982. Incredibile, per noi, il “tutorial” per spiegare come si usa il mouse. In effetti era una “periferica” innovativa: mi ricordo che la prima volta che ci misi su la mano non sapevo mouoverlo molto bene.

Altri tentativi di interfaccia grafica vennero fuori. Il primo Apple Macintosh è del 1984 e definì un nuovo standard. Quasi in contemporanea l’Amiga OS1, del 1985, già consentiva multi-tasking e finestre. Forse qualcuno non sa che il sistema operativo è ancora sviluppato ed è possibile comprare computer che lo impiegano (almeno negli USA). Quale sia l’utilizzo, non mi è chiaro

Entrambe le soluzioni tecniche erano più avanzate del Windows 1.0, immesso sul mercato in quello stesso 1985 senza suscitare molto scalpore. La prima versione di successo del sistema operativo Microsoft fu la 3.0, messa in commercio solo nel 1990; in ogni caso si trattava essenzialmente di “front end grafici” per MS-DOS, con cui il sottoscritto e milioni di altri utenti si sono trovati a combattere ancora per anni. Ebbe il vantaggio di essere più economico ed “abbastanza buono” per l’uso quotidiano, per cui venne adottato da molti produttori di personal computer.