Dall’abaco all’iMac di ultima generazione, i calcolatori (analogici o digitali, meccanici o elettrici che siano) hanno accompagnato l’uomo lungo gli ultimi 3 millenni di evoluzione.

Computer è una parola di derivazione latina che sta per computare, calcolare. Per computer, quindi, si intende un calcolatore automatico in grado di eseguire istruzioni, fornite sotto forma di istruzioni logico-aritmetiche, e di restituire i risultati di tale operazioni in seguito ad un processo di elaborazione. Quale che sia la definizione esatta (difficile da dare, comunque), cosa rappresenti oggi un computer lo sappiamo tutti, perché tutti almeno una volta nella vita abbiamo avuto a che fare con uno di questi dispositivi. Anche voi, per leggere questo articolo, state facendo molto probabilmente uso di un PC. Anzi, è probabile che la gran parte di voi utilizzino un computer o per lavoro o per studio. Quindi, al di là della definizione, sappiamo tutti cosa è un computer e quali cosa possa e non possa fare. Ciò che resta oscuro ai più è la storia di questi dispositivi, quali siano stati i primi computer e come si sono evoluti nel tempo.

Innanzitutto, vista la definizione piuttosto ampia data all’inizio, all’interno della categoria di computer possiamo far rientrare un gran numero di dispositivi che mai penseremmo possano essere accumunati ai PC che abbiamo in casa. Così, ripercorrendo all’indietro la storia dell’uomo, scopriamo che i computer hanno antenati insospettabili. Come ad esempio l’abaco, gli astrolabi o gli orologi astronomici realizzati in Cina attorno all’anno mille.

 

Una Pascalina realizzata da Blaise Pascal nel 1652

 

Molto più sofisticati (e infatti ci spostiamo molto più avanti nel tempo) sono i Bastoncini di Nepero (detti anche Ossi di Nepero), realizzati nella prima metà del XVII secolo dal matematico scozzese Nepero, che permettevano di effettuare complicate moltiplicazioni alla stregua di moderne calcolatrici. Nella seconda metà del 1600, invece, si arrivò alla meccanizzazione delle operazioni matematiche fondamentali (addizione, sottrazione, moltiplicazione e divisione) grazie alla collaborazione – a distanza – di due grandi filosofi del passato: lo svizzero Pascal e il tedesco Leibniz. Il primo, a cavallo tra 1640 e 1660, realizzò una ventina di esemplari di Pascalina, calcolatore meccanico in grado di effettuare addizioni e sottrazioni. Leibniz, una trentina di anni dopo, riuscì a migliorare la Pascalina, riuscendo a creare lo Stepped Reckoner, un calcolatore in grado di moltiplicare e dividere automaticamente.

Nel 1800 la teoria computazionale venne applicata all’industria manifatturiera. Nel 1801, il francese Joseph-Marie Jacquard iniziò a utilizzare all’interno delle sue industrie un telaio semi-meccanizzato controllato da schede perforate. La trama e l’ordito dei tessuti prodotti era dettato direttamente da queste schede, che potevano essere cambiate senza dover cambiare “l’hardware” di supporto (in questo caso il telaio), esattamente come accade con i moderni software per computer.

A ridosso della metà del 1800, l’inglese Charles Babbage sviluppò dapprima la Macchina differenziale, capace di svolgere complicate funzioni polinomiche, e successivamente la Macchina analitica, primo vero prototipo di un computer meccanico in grado di svolgere svariati compiti oltre i calcoli matematici e programmabile attraverso schede perforate. La macchina doveva essere alimentata da un motore a vapore ed era dotata di una memoria interna, capace di contenere sino a 1000 numeri di 50 cifre ognuno, e di un processore per l’analisi dei dati di input. Babbage non fu mai in grado di realizzarne un esemplare – dalle mastodontiche dimensioni di 30 metri di lunghezza e 10 metri di profondità – a causa degli scarsi fondi a disposizione del matematico e filosofo britannico. Ma, grazie alle preziosi intuizioni di Babbage, la strada per i calcolatori meccanici era ormai spianata e la storia dei computer iniziò a muovere i suoi primi, fondamentali, passi.

Prima di arrivare ai computer elettronici e digitali, comunque, dovrà passare quasi un secolo e, soprattutto, fu necessario che il matematico inglese Alan Turing teorizzasse il funzionamento della cosiddetta Macchina di Turing. Questo dispositivo, prettamente ideale, processa i dati salvati su un nastro infinito (nel 1936, anno in cui Turing teorizzava la composizione della sua Macchina, i dati venivano salvati su bobine magnetiche simili alle nostre audiocassette) secondo un insieme definito di regole. Partendo da questo teorema, John von Neuman descrisse l’architettura di un calcolatore, composto da un processore centrale, un’unità di memoria su cui sono salvati sia i dati di input che i dati di output, e un bus che collega tutte le parti tra loro. In sostanza, tutti i moderni computer sono ancora basati sulla Macchina di Turing e sull’Architettura di von Neuman.

 

Un esemplare di ABC, Atanassof-Berry Computer

 

Il primo computer programmabile, lo Z1, venne realizzato dal tedesco Konrad Zuse tra il 1936 e il 1938 nella sala da pranzo dei suoi genitori nella Germania nazista. È di cinque anni successivo, invece, il Colossus, calcolatore elettronico programmabile realizzato dalle forze armate britanniche nel tentativo di decriptare il codice Enigma. Ma nella corsa all’informatizzazione digitale non poteva di certo mancare la nascente potenza mondiale degli Stati Uniti. Tra la fine del 1930 e l’inizio del 1940 vennero realizzati l’Atanasoff-Berry Computer (ABC), il primo computer digitale elettronico della storia, e l’ENIAC (Electronic Numerical Integrator And Computer), primo computer general purpose della storia, grande “appena” 167 metri quadri e pesante 27 tonnellate.

 

Il primo computer realizzato dalla coppia Jobs-Wozniacki: l’Apple I

 

Nell’immediato dopoguerra, l’informatica conobbe un impressionante sviluppo, grazie soprattutto all’invenzione dei transistor che permisero di ridurre peso e dimensioni delle macchine. Il più famoso computer della cosiddetta seconda generazione dell’informatica fu l’IBM 1401, presentato al mondo nel dicembre del 1959. Negli anni ’60 si entrò nella terza generazione dell’informatica grazie alla scoperta dei circuiti integrati, comunemente conosciuti come microchip, che portò alla creazione dei microprocessori. Con i computer di quarta generazione – inizio anni ’70 – si entra nel campo dei cosiddetti microcomputer e ci avviciniamo a grandi falcate verso la “nostra” informatica. I primi microcomputer – tra i quali l’Altair 8800 e l’Apple I – permisero al grande pubblico di avvicinarsi al mondo dell’informatica: sempre più piccoli e sempre più “economici”, iniziarono a varcare le porte delle prime abitazioni e diventare complementi d’arredamento di molti salotti statunitensi.

 

: Il primo portatile della storia, il Compaq Portable

 

Negli anni ’80 sbarcano nel mondo dell’informatica l’interfaccia grafica e il mouse, inizialmente progettati e realizzati da Xerox e successivamente adottati dalla Apple nel Macintosh, il primo computer dedicato alle “masse” dotato di interfaccia grafica ad oggetti. In quegli anni si iniziò a diffondere l’idea di poter realizzare computer “portatili”, ovvero dotati di una fonte di energia interna  e di un monitor. Utilizzabili quindi ovunque, anche per strada. Il Compaq Portable fu il primo computer di questo tipo, antenato di tutti i laptop che utilizziamo oggi.