mercoledì 28 ottobre 2009

Il ponte sullo stretto

(Tempo di lettura previsto: 3')
Nella disattenzione generale lo scorso luglio è stato istituito il comitato che dovrà presiedere la fase operativa della costruzione del ponte sullo stretto di Messina. E fino alla tragica alluvione di settembre nessuno si è curato del ponte. Poi tutti a dire che è un'opera inutile e che le priorità sono ben altre. Poi di nuovo l'oblio e tutti a discutere su qualcos'altro.

Ponte di Nyborg 2In Italia praticamente tutto è etichettabile "di destra" o "di sinistra", dalla tecnologia (il digitale terrestre è di destra, la TV satellitare è di sinistra) alle auto (il SUV è di destra, il monovolume è di sinistra) ai sistemi per gestire il traffico (le rotonde o "roundabout" sono di sinistra e i semafori sono di destra) e anche le grandi opere infrastrutturali non fanno eccezioni in quanto a sponsor, e il ponte è proprio il simbolo principe della grande opera di destra.

Non so se si arriverà mai alla fine, o almeno a vederlo iniziato, ma, nel caso, cosa accadrà di così drammatico e negativo? Vediamo gli argomenti ripetuti sino a farli diventare ormai luoghi comuni:

1. Non finirà mai, sarà una eterna incompiuta. Bè, questo è possibile, guardando la Salerno - Reggio Calabria e gli eterni lavori in corso a Lagonegro (40 anni!). Bisognerebbe fare un atto di realismo e di umiltà e affidarlo ad una società di costruzioni cinese,  possibilmente quella che ha completato un ponte di lunghezza e complessità quasi simile in 3 anni. O quella che ha costruito lo stadio di Pechino nel tempo che noi impieghiamo a rifare una fermata della metropolitana.

2. I soldi degli appalti finiranno alla mafia. E perché solo questi e non tutti gli altri erogati dallo stato in Sicilia e in Calabria? Se l'unica soluzione per far morire di fame la mafia è sospendere ogni erogazione pubblica a queste regioni diciamolo subito, in particolare ai siciliani e ai calabresi.

3. Non serve a nulla se prima non si fanno le autostrade in Sicilia e non si completa la Salerno-RC, le ferrovie a 2 sensi di marcia ecc. ecc. Ok, sono 20 anni che la sento questa, la SA-RC è sempre lì allo stesso punto e le autostrade in Sicilia pure. Forse bisogna proprio invertire l'approccio, sarà il ponte a imporre la costruzione delle strade ai due lati, come avviene sempre in Italia (lavoriamo bene solo sotto emergenza) e magari la Salerno-RC si deciderà a passare da un'altra parte, abbandonando Lagonegro.

4. E' zona sismica il ponte crollerà. Avete presente Los Angeles e tutta la California? Oppure Tokyo? Mi risulta che siano zone sismiche peggio dello stretto, eppure sono piene zeppe di grattacieli e ponti. Se non ci fidiamo dei calcoli degli ingegneri e dei programmi di simulazione che utilizzano diciamocelo subito, ma per coerenza andiamo ad abitare in un prefabbricato di legno ad un piano.

5. Il ponte sarà un monumento nel deserto e tutti continueranno ad utilizzare i traghetti. Un precedente c'è, il ponte tra la Danimarca e la Svezia, qui (nonostante il pedaggio sia piuttosto salato) i traghetti sono spariti in pochi anni e il ponte è diventato un elemento di unificazione molto potente tra i due territori, appartenenti addirittura a due paesi diversi che si sono spesso combattuti in passato.

6. Costa moltissimo e non è una priorità. Questo ultimo è l'argomeno principe "tanto non ci sono i soldi". Non è vero, per uno Stato ci sono sempre, Casomai è una questione di priorità. Prima bisognerebbe .. a) completare la Salerno - RC (ancora! ...) ,,, b) rilanciare lo sviluppo del mezzogiorno (magari aiuterà lo scopo proprio questa nuova unificazione fisica dell'Italia) oppure, perchè no, prima bisognerebbe risolvere il problema degli X milioni di famiglie sotto la soglia della povertà. Con questi ragionamenti nessuna opera pubblica si dovrebbe fare mai, non il ponte, ma neanche l'Auditorium di Roma, o l'Ara Pacis, ma neanche in passato il Palazzo dello Sport di Nervi, o il Duomo di Milano, o il Duomo di Orvieto (per il quale si erano tassati i commercianti della città) o gli Uffizi o ... potrei continuare per pagine intere di opere superflue, ma senza le quali non concepiremmo il nostro amato paese, o di infrastrutture che sembravano inutili fughe in avanti ma delle quali ora non potremmo fare a meno.
Un paese deve fare, osare, costruire, progettare, guardare al futuro, se no, tanto vale chiudere e aspettare che gente giovane venga a sostituirci. Negli anni '60 abbiamo costruito in 4 anni l'autostrada del Sole, ma come abbiamo fatto?

Insomma non vedo proprio tutti questi drammi e rischi in questo famoso ponte, l'unica perplessità, derivante da numerosi e lampanti esempi passati (e presenti), è sulla credibilità della realizzazione nei tempi, che è da noi strettamente connessa al grado di convinzione degli sponsor politici, e nella conseguente facilità che un cantiere diventi eterno.
 

sabato 24 ottobre 2009

La meravigliosa storia del ragazzo più intelligente del mondo. Cap. 6

Sesto (e ultimo) capitolo: Perché i PC si impallano e cosa c’entra questo con la fortunata storia della Microsoft e del suo fondatore?(Tempo di lettura previsto: 8')

Apple imac newSi sarà capito che la possibile spiegazione, quella comunemente fornita, ha a che fare con la posizione di monopolio. Il capitalismo è un sistema molto efficiente, magari con qualche effetto collaterale indesiderato (anche l’aspirina li ha) ma che si adatta automaticamente per mezzo di un sistema a controreazione (feedback). Che però si blocca se un soggetto diventa monopolista. Infatti il noto gioco Monopoli, il capitalismo spiegato ai bambini, si fermava quando uno diventava l’unico giocatore. E infatti nel paese capitalista per eccellenza, gli USA, esiste una potente o presunta tale organizzazione antitrust che ha come scopo nella vita impedire i monopoli.
In questo caso però non è intervenuta, evidentemente. Magari perché il monopolio era più mondiale che domestico, e quindi diventava un non sgradito monopolio USA in un settore strategico. E infatti l’unico tentativo di stoppare il monopolio è venuto proprio dall’Europa, e in particolare da un nostro valoroso ex-commissario europeo, Mario Monti.

Non tutti sono d’accordo. Secondo alcuni ottimisti Microsoft con Windows non ha una vera posizione di monopolio perché esistono nel mondo almeno due valide alternative: Linux e i sistemi Apple. Ma è vero fino a un certo punto. In realtà non sono autentiche alternative. Linux è il sistema per chi vuole spendere il meno possibile ma è disposto a sobbarcarsi un lavoro da sistemista (più di quanto già non dovrebbe fare con Windows). Apple MacOS è l’ambiente per chi non ha problemi a spendere di più per avere il meglio.

Per quelli che vogliono comprare al prezzo più basso e non vogliono avere problemi di leggere manuali e simili, quindi praticamente tutti o quasi, l’unica alternativa è Windows.
linux_insideQuindi è un monopolio. Per ora. Perché difatti non è neanche questa la spiegazione. Microsoft ha una posizione di monopolio ma non si comporta affatto come tale. Un monopolista se ne sta tranquillo rinnovando il meno possibile, tanto i clienti non hanno scelta. Invece MS si ingegna di cambiare sistemi che andavano quasi bene (XP) con altri male accolti da tutti, magari a torto (Vista) e dopo solo tre anni eccone ancora un altro (Windows 7). Perché tutto questo agitarsi?

Perché non si sentono affatto sicuri. Lo sanno che i PC con i loro sistemi si impallano e che potrebbe sempre succedere che qualcuno trovi un sistema per ridurre la loro quota di mercato. In fondo è successo già con Linux (chi avrebbe mai scommesso sul sistema open di Linus Torvaldt, sconosciuto studente finlandese?) e anche con Mozilla Firefox.
Quindi non è vero che non ci provino a rendere più stabili i loro sistemi. Ci provano, con alterni successi.
Se non ci riescono è per un altro paradosso di origine di tutta la vicenda PC. Vi ricordate del sistema VMS, l’ottimo sistema operativo della Digital che è poi la base di tutti i sistemi Windows dal W2K in poi? Perché mai quando era Digital era stabile come un pezzo di granito ed ora nella sua nuova vita si è trasformato in quella cosa con cui ci troviamo a combattere? Cutler e gli altri progettisti hanno perso la mano passando alla Microsoft?

Niente affatto, il VMS era un sistema per ambienti usati da più utenti contemporaneamente, spesso professionali, o da utenti singoli ma sempre per uso professionale, ed era sempre presente un servizio di manutenzione, spesso con un sistemista dedicato. Che effettuava gli aggiornamenti, interveniva nei rari casi di errore o nei rarissimi casi di blocco, curava le nuove installazioni.

Il software applicativo e le utility che venivano installate erano realizzate in gran parte (quasi tutte) dalla stessa casa produttrice. La interazione con il sistema operativo era provata a lungo, ed era assai improbabile che dalla combinazione uscisse fuori una condizione nuova, non prevista, non gestita. Quella che appunto mette in crisi il sistema. Che, dal nostro punto di vista di utenti, si “impalla”.
macbookair-4The Art of Software TestingQui sarebbe necessario fare un piccolo excursus su come si fa ad essere sicuri che un certo programma software funzioni. In altre parole come si fa il “software testing”.Ci provo. (Ma volendo si può anche saltare alle conclusioni). Un programma non è altro se non una serie di condizioni, di “se” (come dimostrato da un noto teorema di logica matematica, il teorema di Jacopini-Bohm, due scienziati italiani, ma non vorrei spaventare nessuno, lo cito solo). Le possibili ramificazioni sono molte, e crescono esponenzialmente se i programmi si compongono tra loro per poter fornire funzioni più complesse.Se il computer attraverso queste diramazioni segue i sentieri principali, quelli pensati e progettati dal programmatore, tutto funziona perfettamente. Perché il programmatore per primo aveva percorso quei sentieri. Se però si prende una strada diversa, un bivio non previsto, si può anche arrivare ad una combinazione non gestita, che provoca un errore (un “crash” si diceva una volta) o più semplicemente quelle antipatiche situazioni di mouse bloccato o PC che gira furiosamente senza riuscire ad andare da nessuna parte.Come si fa ad evitarlo? Ad avere programmi senza errori o, come dicono gli americani, “bug free”? Semplice, direte voi, basta provare tutte le combinazioni possibili, non saranno mica infinite. No, non sono infinite, ma sono veramente tante, e per provarle tutte c’è bisogno di molto tempo (e molti soldi). I software bug free, quelli della NASA (dicono) o quelli che una volta sui facevano nelle “fabbriche del software” (ma solo sulla carta e nei sogni dei responsabili del controllo qualità) o comunque a basso tasso d’errore richiedono un ambiente di sviluppo e test dotato di un sistema di controllo dei test. Cerco di spiegarmi meglio.I test si progettano, e li progettano persone. Se sono gli stessi programmatori i test vengono malissimo, perché fatalmente seguono il percorso più logico secondo i loro processi mentali. Se sono altri, magari anche un po’ imprevedibili se non addirittura limitati, vengono meglio. Ma per essere sicuri del grado di copertura occorre un “coverage analyzer”, un sistema che esplora tutti i percorsi possibili del sistema e poi, una volta lanciato il test completo (che si chiama “test di sistema” infatti) calcola la percentuale di percorsi che sono stati effettivamente seguiti. La copertura del test. Che deve essere la più alta possibile compatibilmente coi tempi.

Proviamo a vedere se funziona
Troppo complicato? Non importa. Tanto nessuno (forse solo la NASA e i produttori di aerei, almeno speriamo) produce più il software così. Microsoft e tutti gli altri usano un sistema molto più semplice, basato sulla statistica dei grandi numeri, che può capire chiunque. Un primo test lo fanno loro nel laboratorio di produzione, gli stessi programmatori o un cerchio di tester appena più ampio. Poi, una volta verificato che più o meno riesce a “stare in piedi” per le funzioni principali, lo passano al “beta test”. Ovvero ad una moltitudine di utenti più o meno professionali che, gratuitamente o quasi, per la sola passione di provare in anteprima un nuovo prodotto, lo iniziano ad usare. Essendo molti statisticamente percorrono molte diramazioni e trovano molti errori e, alla fine del beta test, il software sarà ragionevolmente stabile.

Funziona meglio o peggio dei sistemi di test professionali che descrivevo prima? Più o meno uguale. Quelli non li seguivano mai fino in fondo perché il cliente premeva e il progetto era sempre in ritardo, questi hanno la forza dei numeri e del miglioramento progressivo.

Allora perché, se il software è testato abbastanza bene, comunque il PC si impalla? Ma perché c’è ancora un’altra variabile: la interazione tra i vari programmi sullo stesso povero PC. Di ogni provenienza, buoni e non buoni, o addirittura malevoli. Per quanto un beta test sia lungo e ampio tutte queste combinazioni non le potrà provare neanche di striscio. Le proveremo noi. Diventando noi stessi involontari protagonisti del test. Quando inviamo le segnalazioni a Microsoft (se abilitiamo questa funzione).

Ed è questo il motivo per il quale i sistemi Apple sono migliori. Perché la maggior parte del software è proprietario, è della stessa Apple, e anche quello non Apple non è così variegato. Le interazioni e combinazioni sono quindi in numero molto più limitato. Oltre al fatto che costa di più perché c’è un motivo.

Tutto qui? No. Il paradosso di fondo è ancora un altro. E’ la divaricazione sempre più grande tra le funzioni disponibili e quelle che usa l’utente. Quando compro una nuova macchina fotografica digitale o un nuovo telefonino mi affascina sempre leggere nel libretto di istruzioni il numero incredibile di funzioni che la quasi totalità dei compratori e delle compratrici non si sognerà mai di usare. La sincronizzazione del flash sulla seconda tendina (virtuale) in una compatta digitale. Il lettore di codice a barre su un telefonino. Ma ce ne sono a decine.

Su un PC siamo a due o tre ordini di grandezza oltre. I primi computer, quelli usati per andare sulla Luna (sì, ci siamo andati) erano meno potenti di quelli inseriti in un telefonino di oggi, ma erano usati al 100% delle loro possibilità. La potenza e la memoria del nostro PC è usata invece ad una frazione del totale (10%? 1%? Forse meno?) e resterebbe inutilizzata se non ci pensassero tutti quei programmi, che magari neanche abbiamo installato noi, che vanno allegramente in conflitto tra di loro facendo impazzire il povero PC che salta dall’uno all’altro soccombendo poi inevitabilmente e bloccandosi senza speranza.

La maggior parte delle persone compra un PC per poche funzioni: scrivere qualcosa, navigare su Internet, inviare la posta elettronica. Per queste funzioni non servirebbe neanche un PC, basterebbe un browser (come Internet Explorer) e un ambiente in rete come Google Docs.
Qualcuno poi crea presentazioni o fa calcoli e altro con un foglio elettronico, ma basta ancora Google Docs. Ecco, per gestire immagini e video, o per elaborare musica serve un PC “proprio”, almeno per ora. Ma comunque anche queste applicazioni non “saturano” affatto la potenza di un moderno PC.

Ma tutto il sistema è andato e va in un’altra direzione: fornire sempre più potenza e sempre più funzioni, non importa se i clienti le useranno o no. E’ il modello “wasting” (spreco) che secondo alcuni analisti controcorrente (di Wired) si coniuga con la libertà. E forse è pure vero.

Quindi, tirando le fila, i PC ce li teniamo così, e ogni tanto fatalmente si impalleranno, perché:
  • c’è un solo produttore e non abbiamo il beneficio della concorrenza
  • l’ambiente è più complesso di quello di un sistema degli anni ’80 dove c’era un sistemista dedicato, e noi non possiamo permetterci un sistemista dedicat
  • più usiamo il PC e più ci mettiamo dentro funzioni e più ne aumentiamo la complessità e quindi il rischio di instabilità
  • non vogliamo usare ambienti chiusi (con solo il browser) tipo “terminale” , anche se ci basterebbero, perché vogliamo la libertà di avere un nostro piccolo mondo senza vincoli e regole esterne
  • non abbiamo nessuna intenzione di perdere il nostro tempo (molto del nostro tempo) leggendo le istruzioni e manutenendo il PC
E una possibile soluzione è quella suggerita dalle immagini di quest'ultimo capitolo: vincere la pigrizia, decidersi a spendere un po' di più e passare al Mac.

Tutto ciò premesso, che tipo di PC ho usato per scrivere questo lungo post? Un Mac della Apple?
Ebbene, no, un normale notebook con (orrore) Windows Vista. C’è un Mac a casa mia e quindi parlo per esperienza e non per fede. Ma non è il mio.

E perché questa incoerenza? Perché negli anni ho selezionato una miriade di programmi di utilità che mi servono per i miei lavori e ritrovarli tutti in ambiente Mac comporterebbe un sacco di tempo e un sacco di soldi. Almeno credo, perché anche verificarlo cercandoli richiederebbe un sacco di tempo. Quindi c’è ancora un altro motivo, lo stesso che fa la fortuna da sempre del ragazzo più intelligente del mondo: l’inerzia dovuta al costo del passaggio, il vantaggio di chi arriva prima.

E il ragazzo (ormai uomo) più intelligente del mondo? Nel frattempo è diventato anche il più ricco del mondo. E, a differenza di altri, non si è buttato in politica. Ma ha fatto quello che avremmo fatto o faremmo tutti noi se avessimo la intuizione geniale che ha avuto lui negli anni ’90 e la conseguente fortuna: a 50 anni o poco più ha smesso di lavorare e si è dedicato ad una sua fondazione benefica. E ha lasciato qualcun altro a battagliare con i concorrenti (che ora sono Oracle, Google, Sap …), cercando di fare incursioni nei loro territori di analogo semi-monopolio.

Tutte le puntate in ordine cronologico:

Premessa: L'oggetto misterioso (ovvero: Perché i PC si impallano?)

Primo capitolo: L'importanza di essere al posto giusto al momento giusto

Secondo capitolo: Il PC dilaga

Terzo capitolo: Il miglior programma per PC mai realizzato

Quarto capitolo: Apple e Digital alla riscossa

Quinto capitolo: Il tradimento

Sesto capitolo: Perché i PC si impallano e cosa c’entra questo con la fortunata storia della Microsoft e del suo fondatore?

sabato 17 ottobre 2009

La meravigliosa storia del ragazzo più intelligente del mondo. Cap. 5

Quinto capitolo: Il tradimento(Tempo di lettura previsto: 5')
Microsoft_Windows_Logo_from_1992_to_2000Gli anni '90 si aprivano con un grande successo commerciale, quello del già citato Windows 3.x (3.0 e 3.1), ma sotto i peggiori auspici per il futuro della allora ancora relativamente piccola Microsoft. La IBM sotto le cui ali aveva prosperato e fatto affari, aveva deciso che la ricreazione era finita e che era giunto il momento di riprendere in mano il gioco. E aveva iniziato lo sviluppo del sistema operativo definitivo per tutti i PC: l’OS/2.

I competitori di IBM erano ben aggressivi, Digital e Apple sembravano ancora in grado di portare l’assalto alla incontrastata supremazia di “big blue” e, nei centri di ricerca e negli ambienti di grafica computerizzata avanzava un terzo incomodo, anzi numerosi terzi incomodi, accomunati dalla scelta di utilizzare Unix, quel sistema operativo realizzato oltre dieci anni prima da un ricercatore dei Bell Laboratories, Ken Thompson, che in realtà non si occupava strettamente di informatica ma che, stanco e annoiato dai limiti dei computer che gli toccava usare (per la cronaca era il Digital PDP-11 con il sistema operativo RSX-11) aveva deciso di impiegare un po’ del suo tempo a realizzarne uno tutto suo, lo Unix appunto. Certo prima aveva dovuto impiegare un altro po’ di tempo, ma questa volta con l’aiuto di un collega, a realizzare un linguaggio di programmazione ad hoc, che era appunto il linguaggio C. I terzi incomodi erano Sun, HP, la stessa AT&T, Olivetti, anche la francese Bull, parecchi, Unix costava poco e rendeva molto in termini di immagini, era “aperto” e, non si sa perché, alla fine degli anni ’80 questa era considerata una caratteristica fondamentale.

Il ruolo per Bill Gates e la sua Microsoft era disegnato dalla IBM: partecipare allo sviluppo di OS/2 portando in dote il proprio know-how. E poi realizzare alcuni applicativi per il nuovo ambiente, cominciando dal “porting” del suo Excel e continuare così come partner minore.

Un ruolo comodo e tranquillo, ma gregario, al quale il ragazzo più intelligente del mondo (non aveva all’epoca ancora 40 anni) si è ribellato, facendo la fortuna sua e di parecchie generazioni di suoi discendenti a venire.

“Volete un nuovo sistema operativo?”, “Dio solo sa quanto ce ne sia bisogno, ma possiamo farlo noi in molto minore tempo, vi anticipiamo e vedremo chi resterà sul campo”.
Una sfida temeraria ma che partiva da qualcosa di consolidato, stabile, sul quale si poteva costruire il nuovo, con qualche speranza di successo.

Vi ricordate il sistema VMS della Digital del quale parlavo alcune puntate fa? Un ottimo sistema, a 32 bit, come avrebbe dovuto essere l’OS/2, con una architettura funzionale e completa, da cui l’idea meravigliosa del nostro: assumiamo i progettisti e facciamolo rifare in ambiente Intel (Intel è l’hardware dei PC IBM, come noto). Loro sanno come si fa un sistema compatto, alla IBM non è detto, e arriveremo primi. D’altra parte la Digital stava entrando proprio allora (siamo all’inizio degli anni ’90) in quella fase di stallo nella quale non sapeva bene come sfruttare i suoi gioielli (il VMS, ma anche il nuovo hardware Alpha a 64 bit, che sarebbe ancora all’avanguardia oggi, a quasi vent’anni di distanza) e che le sarebbe stata fatale (ma questa è un’altra storia).

Si poteva fare, e si è fatto, il capo progetto delle ultime versioni del VMS, Dave Cutler, è arrivato alla Microsoft con (immagino) alcuni dei suoi progettisti, ed è iniziato lo sviluppo di quello che sarebbe stato WNTWindows New Technology, secondo la più accreditata spiegazione dell’acronimo (che è sempre rimasto non ufficiale). Ma che in realtà era una citazione da un noto film, ed un auspicio. Nel capolavoro di Kubrick 2001 Odissea nello spazio il calcolatore che prende il possesso dell’astronave si chiamava difatti HAL, erano le tre lettere che precedono quelle della prima società di computer, la IBM. Ora il riferimento era ovviamente al VMS (Virtual Memory Storage, sarebbe la sigla) e le lettere erano le tre successive nell’alfabeto inglese.

Come è andata si sa, il WNT non è arrivato prima di OS/2, casomai dopo (1996) a parità di funzionalità, e parecchio dopo (2000) con la sua prima versione effettivamente commerciale e di vasta diffusione (che era il Windows 2000) e non era neanche così superiore e così stabile rispetto al rivale, ma più che la gara per il nuovo sistema poté l’inerzia dell’ormai enorme parco installato.

Solo grandi organizzazioni che potevano spendere forti somme nell’assistenza tecnica per il passaggio da un sistema all’altro, con tutto il loro corredo di applicazioni già installate, file utente importantissimi e da salvare (e che gli utenti si erano ben guardati dal salvare) e interfacce che stavano su per miracolo con i sistemi centrali (era tutto client / server, all’epoca). E poi la IBM si incaponiva ancora con la sua rete proprietaria token-ring, e voleva far cambiare anche quella.

E anche quando le potevano spendere si chiedevano (giustamente) perché avrebbero dovuto spenderle e se forse non era meglio attendere i nuovi sistemi man mano messi a disposizione da parte del fornitore originario del sistema che stavano usando, Microsoft appunto, e quindi i vari Windows 98, Windows ME, fino appunto al mitico Windows 2000 o Windows 2K.
Avevano sperimentato che, pur nella instabilità che caratterizzava tutti quei sistemi, il passaggio dall’uno all’altro, l’upgrade, era una operazione che di solito si riusciva a fare; addirittura, in alcuni casi sembrava che poteva pensarci addirittura l’utente da solo.

Il risultato è stato che solo poche organizzazioni ciecamente fedeli a IBM (banche e simili) si sono buttate nella migrazione a OS/2. E figuriamoci se l’hanno fatto i privati, quelli che avevano un PC a casa. Qui (ma anche in molte organizzazioni) un’altra differenza la faceva il copyright del software. Che Microsoft ha sempre lasciato astutamente senza protezioni (almeno sino a non molti anni fa) seguita in questo da molti altri produttori di applicazioni. L’aspettativa (corretta) era che IBM non sarebbe stata così di manica larga e quindi, perché rischiare di dover non ricomprare, ma proprio comprare tutto?

E poi, per quali motivi cambiare, per quali vantaggi sostanziali? In fondo la stessa IBM ai tempi dell’accordo di ferro con Microsoft aveva già dato a tutti la nuova funzionalità più importante, l’ambiente a finestre e il mouse, con il Windows 3.0/3.1 (1990-92). Certo non era “multitasking” a differenza dell’OS/2, qualsiasi cosa questo volesse dire ma, appunto, cosa vuol dire di preciso “multitasking” e perché non potrei farne a meno?

logo_next_largeE il mercato è rimasto nelle mani di Microsoft. Che, in pochi anni, grazie a questa unica semplice mossa, è stata lei la società che è riuscita a superare alla fine la grande IBM, numero uno dei computer sin dai primordi, non l’ambiziosa e arrogante Digital convinta (non a torto) di essere la numero uno in qualsiasi tecnologia, non la Apple con le sue idee innovative e il suo approccio marketing, non il sistema operativo del futuro, il sistema aperto, lo Unix. La IBM era ora costretta addirittura ad una pesante cura dimagrante, con decine di migliaia di posti di lavoro in fumo (era arrivata a 440 mila dipendenti nel mondo alla fine degli anni ’80, erano la metà dieci anni dopo).

Quindi lo scenario nel nuovo millennio era ben delineato: un mercato dei PC in crescita inarrestabile, e un solo ambiente operativo, quello di Microsoft, anche perché la Apple negli anni ’90 era entrata in uno dei suoi periodi grigi, Steve Jobs era addirittura uscito nel decennio precedente (fondando una sua compagnia, la Next) e non poteva proporre nessuna alternativa credibile. Mentre la Digital era addirittura uscita di scena, acquistata prima da Compaq (un ex semplice clonatore di PC IBM) e poi dalla ex rivale (disprezzata) HP, che aveva mangiato il pesce Compaq.

Ma non ho risposto alla domanda iniziale: (perché i PC si impallano?). O forse la risposta è già nella storia narrata sopra? Comunque ci torno sopra nella prossima (e ultima) puntata.

venerdì 9 ottobre 2009

La meravigliosa storia del ragazzo più intelligente del mondo. Cap.4

Quarto capitolo: Apple e Digital alla riscossa
(Tempo di lettura previsto: 5')
Facciamo un passo indietro e torniamo a metà degli anni '80, quando il PC IBM sbaraglia il mercato e mette in un colpo solo all'angolo Digital e Apple.

Digital e i miniNessuna delle due multinazionali concorrenti di IBM  rimase però passiva davanti al successo della IBM nel nuovo mercato. Digital decise di concentrarsi nuovamente nel settore che aveva inventato: i minicomputer. L’arma vincente l’aveva già in casa, era il nuovo sistema VAX e soprattutto il sistema operativo VMS. Questo sistema, dovuto a un team di progettisti guidato dal geniale scienziato Hustvedt (che purtroppo sarebbe stato messo fuori gioco qualche anno dopo da un grave incidente di macchina, nel quale perse l’uso della memoria a lungo periodo) è tuttora (seppur non più in produzione da anni) il migliore sistema operativo mai prodotto, di gran lunga superiore agli attuali sistemi Microsoft, ma anche a Unix o Linux. Il fatto che non sia praticamente più in uso è un’altra prova dei paradossi della tecnologia, ma ci torniamo dopo per differenze rispetto ai traballanti sistemi Microsoft. Il VMS poteva essere usato da uno o da 100 utenti assieme, non si impallava e, se proprio si verificava un malfunzionamento in qualche condizione particolare o utility secondaria, questo non era considerato un evento ineluttabile né dai sistemisti né dall'azienda. I sistemisti avevano fatto corsi di "internals" del sistema e avevano una idea non solo di cosa sia un "sistema operativo" ma persino di quello che dovevano manutenere. E se trovavano un errore noto lo risolvevano ricorrendo alla letteratura disponibile o ai forum che li connettevano con tutti gli altri dipendenti della multinazionale nel mondo, oppure, se proprio era un problema non noto, mai accaduto, lo comunicavano alla casa madre che provvedeva ad inviare una "patch" per risolvere il problema e, in attesa, forniva un "workaround" per convivere temporaneamente con esso. 
 
Il MicroVAX
Digital non fece altro che ridurre di taglia il VAX (che era un sistema per piccoli / medi gruppi di lavoro, era grande come una fotocopiatrice da ufficio e costava non meno di qualche centinaio di milioni di oggi) introducendo un sistema ridotto in dimensioni e costi, il MicroVAX, che poteva anche essere utilizzato come stazione di lavoro individuale (VAXStation, essenzialmente per grafica, architettura e progettazione in genere). Il MicroVAX costava fino a un decimo del VAX, era grande come un paio di PC di oggi  uno dietro l'altro (MicroVAX II) ed ebbe un successo enorme per l’epoca, persino per uso in campo militare (poteva anche essere inserito sugli aerei, e garantiva potenze di calcolo prima impossibili). Il MicroVAX è stato anche il protagonista di una interessante storia di spionaggio, che ha visto alcuni di questi sistemi prendere la strada di Cipro, poi attraverso una serie di passaggi con altri OEM, arrivare in Sudafrica per giungere infine in URSS. Alla caduta dell'impero sovietico, pochi anni dopo, però la copia del MicroVAX non era ancora pronta, e la informatica russa era ancora ferma ai sistemi mainframe RIAD, copia degli IBM 360 degli anni '60, e alla copia dei sistemi PDP a 16 bit della Digital degli anni '70. Che avevano però consentito di formare una intera generazione di validi (e creativi, giocoforza) informatici, che sarebbero stati utili alla ripresa di questi paesi dopo la fine dell'impero.

La stagione d'oro della Digital Equipment Corporation
microvax-3600Sospinta dal MicroVAX e dalle scelte nel settore delle reti (la rete locale Ethernet, quella usata ancora oggi da tutti come standard, implementata in accordo con Xerox, le prime reti di computer per lo scambio di informazioni, precorritrici di Internet) la Digital entrò nella sua stagione d’oro, diventando la società di computer a più alta crescita, arrivando addirittura ad assediare la supremazia di IBM a fine anni ’80, quando il fatturato della compagnia arrivò ad ¼-1/5 di quello IBM, in affanno per la perdita di mercato sui grandi computer e per la competizione sui PC.

La Digital puntava esplicitamente alla grande impresa e a rimpiazzare i sistemi mainframe IBM, con nuovi sistemi VAX a prestazioni più elevate, o interconnessi in rete, in cluster (i progenitori degli attuali servers). I sistemisti della multinazionale attaccavano al muro con le puntine ironici manifesti nel quale si autoproclamavano “hostbusters”, cacciatori di host (il nome tipico dei grandi sistemi IBM), facendo il verso al famoso film dell’epoca Ghostbusters (gli acchiappafantasmi).

E per qualche anno, fino ai clamorosi passi falsi di Ken Olsen, peccato di superbia rispetto al nuovo che avanzava (Unix e Internet) il tentativo di assalto al cielo sembrava riuscire. Poi un venerdì nero del 1991 gli uomini e le donne DEC, sbigottiti, appresero in rapida successione, nel pomeriggio inoltrato, prima delle dimissioni di Ken Olsen e poi del suo numero due, l’italiano Carlo Falotti, ed ebbero all'unisono il fondato timore che quell’epoca era finita.
Apple e il Mac
Ma sono andato troppo avanti, a metà anni ’80 la Digital trionfava, e anche la Apple non era da meno. Steve Jobs aveva fatto tesoro del Lisa e l’aveva riproposto, migliorato, con il nome di MacIntosh, o semplicemente Mac, nel 1984. Era il futuro, aveva già tutto quello che faticosamente si è visto sui sistemi Microsoft e IBM solo anni dopo. Mouse, grafica, navigazione a ipertesti (quella tipica di Internet di oggi) e, presto, già l'anno dopo, una nuova versione del Visicalc, potentissima, facile da usare ed accattivante, chiamata Excel. E sviluppata da Microsoft, come già si è visto.

IBM subiva quindi un attacco su tre fronti, i sistemi professionali che si abbassavano di prezzo (non solo Digital VAX e MicroVax, ma anche Sun e HP, con le loro versioni di Unix), il Mac, e i PC compatibili, non solo quelli di Olivetti, ma anche quelli a prezzo ancor più bassi prodotti a Taiwan, ad esempio da una piccola casa americana che avrebbe fatto molta strada, la Compaq.

La reazione di IBM fu affidata in prima battuta ancora una volta alla piccola Microsoft di Bill Gates, che oppose al "nuovo che avanza" uno dei peggiori prodotti informatici di tutti i tempi, il Windows 3.1, pessimo oggetto ma grande successo. In  pratica era un vestito che camuffava il vecchio sistema DOS per dargli un aspetto moderno, e consentire l’uso mediante finestre (windows) e i comandi via mouse. la Microsoft sfruttava la positiva esperienza fatta con Excel in un ambiente a finestre, ma il Windows 3.1 manteneva sotto la superficie i limiti del DOS, tra tutti, due: operare in serie (durante una stampa il PC era inutilizzabile, per esempio), e la instabilità, quel fenomeno, sconosciuto a tutti gli altri sistemi professionali, chiamato anche “spegni-e-riaccendi” o “CTRL-ALT-DEL” (la sequenza di tasti per far ripartire il PC quando entrava in stallo). Una sequenza inventata da un ingegnere della IBM,  evidentemente disperato, per dare comunque una soluzione agli utenti. L'ingegnere si chiamava David Bradley ed è diventato famoso per questa semplice idea.

Oltre a tutto, la interfaccia era praticamente copiata di sana pianta dal Mac, e la Apple non ci mise molto a fare causa per plagio. Perdendola, perché a sua volta aveva copiato dalla Xerox.

La strategia di IBMMa il Windows 3.1 per il gigante IBM ("big blue" era il soprannome) era solo una mossa tattica, per prendere tempo. La enorme multinazionale, con la lentezza del pachiderma, ma altrettanta forza, si apprestava con calma a raccogliere il successo dei PC, prendendo in mano essa stessa lo sviluppo di un nuovo sistema, che doveva superare i limiti del DOS/Windows di Microsoft. Come dire, “fatti da parte ragazzino e lasciami lavorare”.
Momento difficile per Microsoft. La IBM lanciava lo sviluppo del nuovo sistema definitivo, destinato nei piani a diventare lo standard per i PC, l’OS/2 (come dire, il secondo sistema operativo, il primo era il DOS/VSE dei mainframe, l'MS-DOS di Bill Gates solo un incidente di percorso), e la forza commerciale di una compagnia che allora aveva 440.000 impiegati nel mondo, era pronta per la invasione del mercato. Per Microsoft era previsto un ruolo di partner, avrebbe collaborato allo sviluppo di OS/2, mettendo in comune la sua esperienza, e diventando sempre più satellite di IBM, con un futuro di probabile inclusione nel gigante.

Nessun dubbio da parte di IBM nel successo della operazione, che avrebbe fermato Digital, i nascenti sistemi Unix di Sun e HP, e avrebbe consolidato attorno allo standard dominante di IBM il mercato più promettente di tutti, quello dei PC. L'unico dubbio era su quanti mesi sarebbero stati necessari per completare il programma. E Microsoft? Non era neanche contemplato come possibile rivale, era un piccolo partner che poteva solo dire di sì e ringraziare per la fiducia (non del tutto meritata, e anche IBM lo pensava) che ancora veniva accordata.

Come ha fatto il nano Microsoft ha mettere nel sacco il Golia IBM? Come ha fatto il prodotto peggiore a conquistare il mercato sbaragliando il campo dai prodotti migliori?

Lo sapremo nella prossima puntata: Il tradimento.
(Nelle foto la famiglia VAX negli anni '80, VaxStation 2000, il MicroVAX II e il Macintosh 1985)

 

giovedì 1 ottobre 2009

La meravigliosa storia del ragazzo più intelligente del mondo. Cap. 3

Terzo capitolo: Il miglior programma per PC mai realizzato(Tempo di lettura previsto: 2 minuti)

Ma, in fondo, cos'è che rendeva così attraente e desiderabile negli anni '80 un PC, aziendale o personale che fosse, e che ne giustificava l'acquisto? Come dicevo prima, sembra che tutto quello che faceva si poteva fare anche prima, lettere, documenti, posta, ricerca di informazioni (no, questa ancora no: all'epoca Internet (per tutti) ancora non c'era); certo si faceva tutto con maggiore comodità e velocità, ma bisognava perdere tempo ad imparare ad usarlo. La vera cosa nuova, in fondo, era solo una: il foglio elettronico.

Il foglio elettronico era qualcosa del tutto nuovo, anche per i grandi computer. Nasceva da una tesi di laurea di un brillante studente americano, Dan Bricklin, che immaginò e poi realizzò con un socio (nel 1978) una tabella nella quale ogni elemento poteva contenere un numero o una formula matematica, o un testo. In questo modo era possibile per la prima volta, senza conoscere alcun linguaggio di programmazione, gestire il proprio conto in banca, calcolare un mutuo, creare l'archivio dei dischi o dei libri, o pressoché qualsiasi altra esigenza di organizzazione della propria vita e del proprio lavoro. E anche in questa vicenda c'è un ruolo per il ragazzo più intelligente del mondo.

Lo studente Bricklin con il socio Frankston trasse dalla sua idea un prodotto, per PC IBM in primo luogo, e lo vendette con il nome di Visicalc. Altre aziende copiarono e svilupparono la idea. Una, la Lotus, con il nome 1-2-3, dopo aver comprato i diritti da Bricklin e dal socio lo fece diventare il prodotto standard per il mondo IBM PC (e poi fu comprata dalla IBM stessa). Ironia della sorte, come avviene spesso nel mondo contemporaneo il nome di Dan Bricklin, a cui si deve una idea che ha più o meno la importanza della invenzione della ruota, è sconosciuto a tutti (come peraltro quello dell'inventore della ruota).

Pochi anni dopo un'altra piccola azienda ebbe l'idea di fondere la praticità del foglio elettronico (spreadsheet) con la immediatezza dell'uso della interfaccia a finestre (windows) resa da poco popolare da Apple con il Lisa e poi con il primo MacIntosh (1984). Nasceva così il miglior prodotto per PC di sempre, il ben noto e insostituibile Excel, un oggetto del quale, pur sfruttandone di solito le potenzialità al 10%, non si può fare a meno, come sa chiunque l'abbia scoperto (qualche centinaio di milioni di umani).

La piccola azienda che ha sviluppato questo prodotto insostituibile, che sfruttava al meglio, grazie all'ambiente a finestre, la idea geniale originale di Bricklin, era proprio la Microsoft. Excel nasceva per ambiente Apple e veniva commercializzato a partire dal 1985 solo su questa piattaforma, perché il PC IBM la interfaccia a finestre non l'aveva ancora.

Ma proprio questa (allora) piccola applicazione, una delle tante disponibili nel nuovo e rampante mondo "ipertestuale" Apple, sarebbe stata la chiave di volta, o l'ancora di salvezza, per Microsoft da lì a molto poco.


(Nelle immagini un confronto d'epoca su una rivista specializzata tra VisiCalc ed uno dei suoi competitor e il kit Lotus 1-2-3 in versione Cina)