La “storia” del computer

La “storia” del computer

Le basi dell’elettronica digitale

Nel 1854 il matematico inglese George Boole (1815-1864) pubblicò uno studio sulla logica che mirava a espandere il campo di applicabilità della logica aristotelica, creando un’“algebra” della logica: l’algebra booleana (▶ unità 4). Gli studi di Boole influenzarono e vennero influenzati da quelli del logico britannico Augustus De Morgan (1806-1871) e i loro risultati si rivelarono fondamentali nello sviluppo dell’elettronica digitale, che rivoluziona il concetto di computer.

Circa 80 anni più tardi, infatti, nel 1938, l’ingegnere elettronico americano Claude Shannon (1916-2001) presentò una tesi nella quale dimostrava che un segnale elettrico che attraversa una rete fatta da interruttori, segue le stesse regole logiche descritte nell’algebra booleana.

La teoria della computabilità

Nel 1936 il matematico inglese Alan Turing (1912-1954) pubblicò un articolo in cui descriveva un dispositivo ipotetico, formale e semplice noto con il nome di macchina di Turing: una macchina astratta in grado di realizzare la procedura risolutiva di un problema descritta da un algoritmo. La macchina di Turing è dotata di una memoria, un ingresso, un’uscita, una capacità di elaborazione e un programma memorizzato.

Partendo dalla considerazione che non tutti i problemi possono essere risolti da una sequenza di istruzioni, Turing formulò il concetto di computabilità, stabilendo che un problema si dice computabile se può essere risolto da un algoritmo.

Turing raggruppò tutti gli algoritmi possibili in classi e definì in modo formale la macchina di Turing universale ( universal Turing machine, UTM): la macchina astratta più generale che possa essere pensata, quella che è in grado di risolvere tutti i problemi computabili. La UTM è così generale da essere equivalente a tutte le macchine di Turing pensabili. Pur essendo un’astrazione, le macchine di Turing influenzarono lo sviluppo delle macchine reali e sono ancora oggi oggetto di studio.


Nella teoria della computabilità un sistema viene definito Turing completo se può simulare una macchina UTM.


Alan Turing viene considerato il padre dell’informatica teorica e dell’intelligenza artificiale perché, per primo, descrisse i principi secondo i quali i computer dovevano funzionare.

Il primo computer della storia

Fra la Prima e la Seconda guerra mondiale, i paesi tecnologicamente più evoluti erano Germania, Inghilterra e USA. A causa della mancanza di circolazione delle idee ogni paese sviluppò dei progetti sui calcolatori elettronici, ciascuno seguendo un diverso filone di ricerca e tutti ignari di quello che, intanto, stavano facendo gli altri.


Nel 1938, in Germania l’ingegnere Konrad Zuse (1910-1995) costruì la macchina Z1, un prototipo programmabile di calcolatore formato interamente da parti meccaniche. A causa delle difficoltà tecniche che erano emerse, nello stesso anno Zuse riprogettò la macchina Z2 sostituendo alcuni componenti con dei relè elettromeccanici.

La vera svolta si ebbe nel 1941 quando nacque la Z3, il primo dispositivo Turing completo, costituito interamente da relè: un computer elettromeccanico programmabile, funzionante e digitale, basato sul sistema di calcolo binario. Il programma era memorizzato su un nastro perforato e le impostazioni iniziali venivano inserite manualmente. Purtroppo la macchina Z3 venne distrutta durante un bombardamento, ma sono state ricostruite alcune copie.


Tra il 1942 e il 1945 Zuse inventò il primo linguaggio di programmazione ad alto livello: il Plankalkül. Il nome deriva dalle parole tedesche plan (piano) e kalkül (calcolo) e fa riferimento a un sistema formale per la pianificazione della computazione.

 >> pagina 15 

Il computer elettronico a valvole

Nel 1946, negli Stati Uniti, presso l’Università della Pennsylvania venne completata la costruzione dell’ENIAC (Electronic Numerical Integrator And Computer), il primo calcolatore elettronico.

La sua logica digitale era implementata solo da valvole termoioniche che garantivano una velocità di calcolo nettamente superiore rispetto ai computer elettromeccanici precedenti. La macchina aveva dimensioni enormi, occupava infatti una stanza di circa 170 m2. L’enorme assorbimento di energia elettrica produceva un intenso calore che, spesso, bruciava le valvole, diminuendo l’affidabilità del calcolatore.

Gli elementi meccanici (lettori di schede di carta perforate per l’input, foratori di schede per l’output e relè a essi associati) erano esterni al calcolatore. Più di mille interruttori e cavi consentivano di programmare la macchina selezionando le impostazioni iniziali: un’operazione estremamente lunga e complicata. Anche se i programmi non potevano essere memorizzati, la macchina poteva essere programmata in modo estremamente flessibile, consentendo una vasta gamma di calcoli in vari campi di applicazione. Questo rendeva ENIAC un computer programmabile Turing completo.

Il primo bug

Nel 1944, negli Stati Uniti, presso l’Università di Harvard, venne completato il calcolatore Harvard Mark 1, il primo di una serie di computer elettromeccanici, il cui progetto originale venne ideato dalla IBM nel 1937. Il secondo calcolatore di questa serie, l’Harvard Mark 2, terminato nel 1947, fu protagonista di un divertente aneddoto.

Grace Hopper (1906-1992) stava lavorando sul Mark 2 con alcuni collaboratori quando gli operai scoprirono che una falena si era incastrata nella parte mobile di un relè, impedendone il funzionamento. L’insetto venne accuratamente rimosso e la causa del malfunzionamento venne diligentemente annotata sul registro di lavoro. La Hopper trovò molto divertente quanto era accaduto, tanto che nell’annotazione del 9 settembre 1947 scrisse “first actual case of bug being found” (cioè “primo caso di bug effettivamente trovato”) incollando la falena sulla pagina.


L’uso del termine bug ( insetto) per descrivere un difetto nella progettazione o nel funzionamento di un sistema era già usato da più di 70 anni anche se non faceva riferimento a un insetto reale, ma a un fantomatico insetto immaginario che, nascondendosi dentro al sistema, causava i problemi. Il primo a parlare di bug era stato Thomas Edison nel 1873.

In informatica, il bug indica un errore in un software. I programmatori eseguono il debug delle loro applicazioni quando cercano, trovano e correggono tali errori (▶ unità 11).

 >> pagina 16 

L’architettura di von Neumann

In un documento del 1945 il matematico ungherese John von Neumann (1903-1957) descrisse per la prima volta l’architettura hardware di un calcolatore utilizzando uno schema astratto, completamente slegato dai dispositivi fisici (▶ unità 1).

Questa architettura, ancora oggi alla base della maggior parte dei computer, entrò a far parte del progetto del computer elettronico EDVAC (Electronic Discrete Variable Automatic Calculator), concepito dagli stessi progettisti dell’ENIAC, a cui Von Neumann partecipò come consulente. La più grande innovazione introdotta dalla sua architettura fu l’uso di un programma che non fosse cablato, cioè impostato per mezzo di interruttori e cavi, ma che potesse essere salvato nella stessa memoria in cui venivano conservati anche i dati (programma memorizzato).

Lo sviluppo dell’EDVAC subì notevoli ritardi a causa di una disputa sulle liberatorie dei brevetti tra l’Università della Pennsylvania e alcuni progettisti, tra cui J. Presper Eckert e John Mauchly che diedero le dimissioni. Il computer venne ultimato solo nel 1949 e divenne operativo nel 1951, continuando funzionare fino al 1961.

Eckert e Mauchly, nel frattempo, fondarono la società Eckert-Mauchly Computer Corporation e iniziarono a progettare l’UNIVAC (UNIVersal Automatic Computer), il primo computer elettronico prodotto in serie, basato sull’architettura di Von Neumann.

La diffusione dei transistor

Nel 1947 nei laboratori della Bells Labs del New Jersey (USA) venne inventato il transistor, un nuovo componente elettronico con dimensione e peso ridotti che consentì di ridurre le dimensioni dei computer.

Per collegare elettricamente i transistor agli altri componenti iniziarono a essere utilizzati i circuiti stampati, delle schede di materiale non conduttivo sulle quali erano incise delle piste conduttive. I cavi dei componenti venivano inseriti in fori preesistenti e saldati alle piste per effettuare i collegamenti.

L’avvento dei transistor ha caratterizzato l’epoca dei computer del decennio 1955-1965.

Erano gli anni della Guerra fredda e il mondo era dominato da due grandi superpotenze (USA e URSS) in lotta per dimostrare la propria supremazia, soprattutto in campo aerospaziale.

Nel 1958, gli Stati Uniti fondarono la NASA (National Aeronautics and Space Administration) e l’azienda IBM iniziò a immettere sul mercato i primi computer commerciali a transistor, fra cui l’IBM 7090 che utilizzava il linguaggio di programmazione Fortran, il primo linguaggio ad alto livello ad aver avuto un’ampia diffusione.

Fra le più grandi invenzioni di questo periodo ci furono proprio i linguaggi di programmazione; oltre Fortran, vennero introdotti Cobol e Lisp (1959), Algol (1960) e Basic (1965), alcuni dei quali sono utilizzati ancora oggi.


Proprio ai linguaggi di programmazione sono legati due episodi che hanno coinvolto alcune scienziate della NASA.

Nel 1961 Dorothy Vaughan (1910-2008), una matematica di colore americana, era supervisore di un gruppo di analiste al centro di calcolo NASA, intuendo che i computer avrebbero cambiato il modo di lavorare, imparò e insegnò al proprio staff il linguaggio di programmazione Fortran, salvando così numerosi posti di lavoro. La sua vicenda è raccontata nel film “Il diritto di contare”.

L’ingegnere informatico Margaret Hamilton (1936) sviluppò, con il suo team del MIT (Massachusetts Institute of Technology), il software di volo per il programma spaziale Apollo. La sua immagine più celebre è quella che la ritrae accanto ai listati del software della missione Apollo 11 che, nel 1969, fece sbarcare i primi uomini sulla Luna.

 >> pagina 17 

La diffusione dei circuiti integrati (microchip)

Nel 1958 Jack St. Clair Kilby (1923-2005), un ingegnere elettrico americano che lavorava alla Texas Instruments realizzò il primo circuito integrato.

Un circuito integrato (o microchip) è un insieme di circuiti elettronici posizionati su una base di materiale semiconduttore (detta chip), che oggi viene realizzata in silicio, ma che nel prototipo di Kilby era in germanio.

La possibilità di inserire tanti componenti elettronici (fra cui i transistor) su un unico chip permise di realizzare dei circuiti più piccoli, più veloci e più economici. Con il passare del tempo la densità di transistor inseriti nei circuiti integrati aumentò rapidamente.

Nel 1971, presso i laboratori della Intel Corporation, nacque l’Intel 4004 (un processore a 4 bit), il primo microprocessore disponibile in commercio, progettato dell’inventore italo-americano Federico Faggin (1941).

I computer del decennio 1965-1975, basati sulla tecnologia dei circuiti integrati, aumentarono notevolmente le prestazioni delle macchine senza aumentare gli ingombri.


Nel 1965 Gordon Moore (1929) enunciò la legge di Moore prevedendo che, almeno per il successivo decennio, “il numero di transistor all’interno dei circuiti integrati avrebbe continuato a raddoppiare ogni anno”.

I mainframe e le workstation degli anni ‘70

Durante la prima metà degli anni Settanta il mercato venne dominato da una famiglia di calcolatori elettronici, a circuiti integrati, considerata la capostipite dei mainframe moderni: la IBM System/360, entrata in commercio nel 1964.

Il loro enorme successo era dovuto all’uso di software e periferiche “intercambiabili”, riutilizzabili tra i diversi modelli. Fino a quel momento, infatti, i computer venivano progettati utilizzando componenti dedicati, pensati per funzionare solo su una macchina.

Nello stesso periodo si diffusero i “minicomputer” (le attuali workstation); il primo fu il PDP-8 (Programmed Data Processor) sviluppato dalla DEC (Digital Equiment Corporation), introdotto sul mercato nel 1965.

mainframe erano computer grandi e molto costosi, con prezzi accessibili solo alle aziende. I minicomputer, invece, pur mantenendo grandi dimensioni (potevano andare da un grosso armadio a una stanza intera) avevano prestazioni inferiori, ma prezzo più accessibile.


Con mainframe e workstation si diffuse il concetto di sistemi real time ( tempo reale), cioè di sistemi in grado di ricevere dati, elaborarli e restituire risultati così velocemente da influire istantaneamente sull’ambiente.

Nello stesso periodo si diffuse anche il concetto di sistemi multitasking, cioè di sistemi che eseguono contemporaneamente più processi, usando a turno il microprocessore, così velocemente da dare l’impressione di un’esecuzione simultanea dei programmi.

 >> pagina 18

I COMPUTER MODERNI

Dalla stanza del computer al computer da tavolo

Nel 1968 Gordon Moore e Robert Noyce (1927-1990) fondarono Intel (Integrated Electronics) l’azienda che nel 1971 immise sul mercato il primo microprocessore (Intel 4004).

Nel 1972, grazie a un’evoluzione di Intel 4004 (Intel 8008), venne sviluppato da un team francese il primo microcomputer, cioè il primo computer, relativamente economico, con funzionamento basato su un microprocessore.

Nel 1975 due giovani americani, Bill Gates (1955) e Paul Allen (1953-2018), fondarono una piccola società di software, la Microsoft.


I computer del decennio 1975-1985 erano caratterizzati dalla produzione di circuiti integrati ad altissima integrazione.

Verso la metà degli anni Settanta i microcomputer iniziarono a essere venduti in kit di montaggio o già assemblati, ma senza il case, cioè senza un contenitore, divenendo molto popolari. Il primo e più diffuso fu Altair 8800 che ancora oggi viene considerato la “scintilla” che ha innescato la rivoluzione del microcomputer.

Nel 1976, Steve Wozniak (1950) e Steve Jobs (1955-2011), amici di vecchia data, presentarono Apple 1, un computer con case ( contenitore) di legno, costruito in un garage, appetibile solo per un pubblico di appassionati di elettronica. Era un microcomputer venduto come kit per il fai-da-te. L’anno successivo nacque Apple 2, il progenitore del PC, venduto già assemblato e prodotto su scala industriale. Con l’Apple 2 si diffuse il concetto di informatica personale, con software che potevano essere usati anche dai “non tecnici” perché, per usarli, non era più necessaria una conoscenza approfondita dell’elettronica.

Nel 1981 IBM lanciò il PC IBM che, pur non essendo la macchina migliore disponibile in quel periodo, aveva un marchio rassicurante ed ebbe un discreto successo. Per ridurre i costi di progettazione, furono usati componenti hardware e software forniti da due società esterne: il microprocessore della Intel (Intel 8088) e il sistema operativo della Microsoft (PC-DOS).

Forse inconsapevolmente, la IBM fece esplodere il mercato dei cloni: la vendita di microprocessori Intel si impennò e la Microsoft sviluppò il sistema operativo MS-DOS (MicroSoft Disk Operating System) con il quale dominò il mercato fino all’introduzione di Windows 3.0 e oltre.

I microcomputer venivano spesso chiamati home computer per ricordare che erano pensati per uso domestico alla portata di tutti. La IBM utilizzò il termine personal computer per differenziarlo dagli altri. Ben presto, però, il termine PC si distaccò dal marchio IBM e iniziò a essere utilizzato per indicare anche tutti i suoi cloni.


Nel 1985 si diffuse l’architettura RISC (Reduced Instruction Set Computer) nella quale vennero ridotti il numero e la complessità delle istruzioni in linguaggio macchina disponibili per il microprocessore. In questo modo le macchine diventarono più veloci e performanti.

In Italia, nel 1982, si diffuse il Commodore 64, un sistema troppo limitato per essere definito microcomputer o PC, ma che ebbe un grande successo come console per i videogiochi e che fu fondamentale per il contributo che diede durante la fase di “alfabetizzazione informatica” della comunità.


Nel 1984, dopo l’insuccesso di Lisa (la cui progettazione era iniziata nel 1978, ma che venne ritenuta una macchina troppo lenta e costosa dagli utenti), la Apple introdusse il Macintosh (con sistema operativo MacOS). Anche se non fu il primo personal computer ad avere un mouse, uno schermo e un’interfaccia utente grafica con finestre e icone, il Macintosh è ricordato come il primo personal computer di grande successo sul mercato di massa.

La scelta del nome Macintosh molto probabilmente non è stata casuale: Apple in inglese vuol dire mela, ma forse non sai che McIntosh (che si pronuncia esattamente come il modello di computer) è una varietà di mela.

 >> pagina 20

L’evoluzione dei software e la diffusione della rete Internet

A partire dalla metà circa degli anni Ottanta, la storia dell’informatica subisce una drastica impennata in ricchezza e rapidità di avvenimenti.


I computer del ventennio 1985-2005 sono accomunati soprattutto dall’evoluzione del software e delle reti di calcolatori.

Le interfacce utente testuali, in uso fino ad allora, lasciarono il posto alle interfacce grafiche: usare il computer diventò più semplice, anche per gli utenti non esperti, e si aprirono nuovi scenari di utilizzo del calcolatore.

Nel 1985 la Microsoft immise sul mercato Windows 1.0 il primo sistema operativo con interfaccia grafica in ambiente multitasking, a cui seguirono, negli anni successivi, ulteriori evoluzioni nettamente migliorative.


La macchina da scrivere venne sostituita dai programmi di videoscrittura (▶ unità 6) e si diffuse il paradigma WYSIWYG (What You See Is What You Get, quello che vedi è quello che ottieni, introdotto dalla Apple con Macintosh): non solo i testi, ma tutto quello che poteva essere visualizzato sullo schermo divenne una riproduzione fedele di quanto sarebbe stato ottenuto in stampa. Il mondo del giornalismo e dell’editoria subirono una rivoluzione.

I personal computer cominciarono a “invadere” le case mentre nei laboratori di ricerca iniziarono a comparire i supercomputer, elaboratori costituiti da un grande numero di processori in grado di eseguire contemporaneamente calcoli estremamente sofisticati a velocità elevatissime.

Nel 1996 il computer Deep Blue della IBM vinse la una partita a scacchi contro un essere umano, il campione del mondo in carica, Garry Kasparov.

Nacquero i primi virus, cioè i primi software nascosti e capaci di auto replicarsi proprio come se fossero dei virus biologici e contestualmente nacquero gli antivirus, i primi software per l’identificazione e la rimozione dei file infetti.

L’interconnessione tra computer iniziò a non essere più un privilegio riservato a università ed enti governativi o militari, anche i PC di casa cominciarono a connettersi a Internet usando prima la linea telefonica e con il tempo connessioni via via migliori, come la ADSL (▶ unità 9).


A metà degli anni Novanta esplose il fenomeno Internet in tutto il mondo, anche in Italia moltissime attività commerciali registrarono il proprio dominio e crearono il proprio sito web. Le persone cominciarono ad aggiungere un indirizzo e-mail al proprio biglietto da visita. La diffusione della rete Internet consentì l’aumento dello scambio di informazioni, anche i programmatori iniziarono a collaborare in rete.

Nel 1991 lo studente finlandese Linus Torvalds (1969) creò Linux, un nuovo sistema operativo simile ai sistemi proprietari Unix, presenti sul mercato in quegli anni. Linux era gratuito e open-source (cioè “aperto”) e gli appassionati di tutto il mondo contribuirono alla sua crescita. Diventò ben presto un sistema operativo molto diffuso e usato in molti campi di applicazione.


Tra la metà degli anni Novanta del secolo scorso e il nuovo Millennio Microsoft introdusse nuove versioni del suo sistema operativo: Windows 95 (nel 1995), Windows 98 (nel 1998) e Windows XP (nel 2001).

Le nuove interfacce grafiche migliorarono l’esperienza dell’utente e anche la sua produttività. Finalmente era possibile usare il tasto destro del mouse ( unità 5). Con Windows 2000 Server la Microsoft introdusse la più grande innovazione dell’epoca: Active Directory, un sofisticato e ben congeniato sistema centralizzato di gestione e di controllo dei server e delle postazioni di lavoro Windows all’interno delle reti aziendali.


Le società e gli enti cominciarono a fare ampio uso dei dati digitali, inizialmente anche solo a supporto degli equivalenti cartacei.

L’aumento del traffico dati su Internet rese necessario il potenziamento degli algoritmi di cifratura e si passò dalle connessioni in chiaro alle connessioni crittate con sistemi di codifica sempre più sofisticati. Cominciò a diffondersi su larga scala la connessione dei dispositivi tramite onde radio (WiFi) e, intanto, si iniziava a prendere coscienza del fatto che gli indirizzi IPv4 (i “numeri” univoci assegnati a ogni computer su Internet) si stavano esaurendo e che presto sarebbe stato necessario rimpiazzarli (▶ unità 9).

 >> pagina 21 

Dal PC allo smartphone

I computer del periodo attuale (dal 2005 a oggi) sono sicuramente oggetto di ulteriori e massicce evoluzioni tecnologiche, anche se il fenomeno che caratterizza maggiormente la nostra epoca è soprattutto una straordinaria evoluzione nei comportamenti delle persone. La diffusione dell’informatica ha raggiunto livelli tali che, probabilmente, neanche gli scrittori di fantascienza sarebbero mai stati in grado di immaginare.

La rivoluzione più estrema è stata la massiccia diffusione dei dispositivi mobili: smartphone e tablet con cui lavorare, giocare, cercare informazioni ecc.

Il fenomeno dei social network è “esploso”: Internet è diventato il “luogo” in cui le persone sembrano avere maggiore facilità a entrare in contatto. Le relazioni nel mondo reale sono state in gran parte sostituite dalle connessioni virtuali, che hanno facilitato il passaggio delle informazioni, ma spesso hanno anche contribuito alla diffusione di notizie non corrette (fake news) che costituisce un grande problema sociale.

La diffusione dei social network ha creato anche nuove professioni: gli influencer influenzano le mode e gli acquisti di massa guadagnando a seconda del numero di utenti da cui vengono seguiti sui social.


La velocità di connessione è aumentata sia da rete cellulare, con la rete 4G (4ª generazione) e soprattutto la 5G (5ª generazione), sia da rete cablata, che da tempo è passata alla banda ultra larga, utilizzando sempre più la fibra ottica e consentendo velocità superiori a 1 Gbit/s.

L’aumento della connettività ha creato anche il problema della sicurezza informatica (cyber security), che è diventata un aspetto fondamentale e inscindibile nella gestione delle reti e dei sistemi informatici.

Parallelamente all’incremento della rete, infatti, si è diffuso il dark web, un substrato di Internet non direttamente visibile o accessibile, che consente di effettuare operazioni in quasi totale anonimato, spesso anche con risvolti illegali.

La digitalizzazione nelle aziende e nella Pubblica Amministrazione è aumentata esponenzialmente, con un abbandono del cartaceo e il passaggio a documenti disponibili solo in forma elettronica.

L’intelligenza artificiale si è diffusa e viene utilizzata in moltissimi ambiti, spesso come supporto per il trattamento delle enormi quantità di dati che oggi sono disponibili (big data).

 >> pagina 22 

i computer del futuro

Il futuro prossimo cosa ci riserva? Sicuramente una forma ancora più pervasiva e completa di tutto quello che è stato già citato. Sempre più dispositivi connessi, sempre più servizi fruibili in mobilità.

Tra le grandi sfide che ci attendono, probabilmente c’è un salto di qualità nell’intelligenza artificiale, se mai sarà possibile, affinché possa diventare veramente tale, con computer che raggiungano una qualche forma di auto-coscienza.

In realtà nessuno sa cosa ci riserva il futuro, perché il futuro è ancora tutto da scrivere. Lo scriveranno le prossime generazioni: ricordati che tu ne fai parte. E se fossi proprio tu il protagonista della nuova rivoluzione informatica?

  educazione civica
SICUREZZA E LEGGI
Il problema della sicurezza informatica ha spinto il Parlamento Europeo a emanare il Regolamento (UE) n. 2016/679, chiamato GDPR (Regolamento Generale sulla Protezione dei Dati), entrato in vigore a maggio 2018, che obbliga le aziende a intraprendere una complessa serie di attività volte a proteggere i dati personali dei cittadini europei e a regolamentarne l’uso e i diritti/doveri all’accesso, alla detenzione, alla distruzione ecc.

Le politiche di sicurezza sono diventate così stringenti che molti produttori di software hanno imposto sistemi di aggiornamento automatico forzato, in modo da “costringere” i PC e i programmi a mitigare continuamente le vulnerabilità che, nel corso del tempo, emergono e diventano note.

Clic!
Clic!
Tecnologie informatiche per il primo biennio