domenica 13 dicembre 2009

Forza SCF!

about_a_boy_movieCos'è questa SCF e perché auspico che raggiunga i suoi obiettivi? Si tratta della Società Consortile Fonografici, una organizzazione di recente rilancio che cerca di raggranellare da ogni parte i diritti che spettano agli editori di musica, quindi anche alle cosiddette "case discografiche".

Un po' come il protagonista del famoso romanzo di Nick Hornby, About A Boy (Un ragazzo) che viveva dei diritti lasciati dal padre per una canzone natalizia ("La super-slitta di Babbo Natale") vanno da ogni soggetto che incautamente fa ascoltare in un luogo pubblico contenuti musicali per i quali valgono i diritti (praticamente tutti) e cerca di farsi pagare quanto previsto dalla legge (del 1941). Compito un poco ingrato se l'incauto diffusore è un negozio che tiene la radio accesa su una emittente musicale (praticamente tutte) o un ristorante che trasmette la solita musica di sottofondo. Che cercherà di resistere a quello che giudica un sopruso, facendo notare che già le case discografiche si fanno pagare dalle suddette stazioni radio i diritti per la diffusione (non siamo più negli anni '70 delle "radio libere").

Ma interessante prospettiva per i pochi (o forse molti) nostalgici del silenzio al ristorante, quella piacevole situazione che consente, ad esempio, di scambiare qualche parola con i tuoi vicini di tavolo o addirittura di discutere piacevolmente a turno anche in una tavolata di 8 o 10 persone (oltre questo limite, come noto, non si deve andare, come insegnava la duchessa di Windsor, e bisogna passare alla cena a buffet). Sempre che anche gli altri avventori usino il sistema di parlare a turno e non uno sull'altro come ad Anno zero o Ballarò, e che i tavoli non siano accostati a pochi centimetri uno dall'altro, come avviene comunemente in Italia.

Invece di solito al vocio degli altri tavoli (che altri preferiscono chiamare direttamente "caciara") si aggiunge la musica di sottofondo, a volte abbastanza alta da impedire di scambiare quelle frasi che vorremmo dire in una cenetta a due, ma altrettanto fastidiosa se diffusa a volume basso. Nella musica che si usa di solito, tipica "muzak" commerciale a volte con pretese di "longue music", è sempre presente un accompagnamento sintetico di basso e batteria, che alla fine è l'unica cosa che si percepisce. Una specie di fastidioso battito, un "unz-unz" attenuato del quale ci liberiamo quando, finalmente, usciamo dal ristorante alla moda.

string-quartet-groupEppure in fondo la musica da tavola ha origini nobili. Era la "tafelmusik" per la quale Telemann aveva composto nel '700 libri e libri di musica destinata ad accompagnare le cene reali e dei nobili. Anni fa in un soggiorno (purtroppo breve) in una eccellente struttura alberghiera in Sardegna ho sperimentato di persona che effettivamente può essere piacevole gustare una ricca colazione all'aperto accompagnata da un quartetto d'archi composto da quattro aggraziate musiciste giapponesi impegnate a proporre musica del settecento dal vivo. Peccato che i lontani detriti di queste belle abitudini pre-rivoluzione francese siano diventate questi tristi e invasivi sottofondi musicali che ci tormentano ovunque.

Appunto la scommessa di SCF è di far cessare tutto questo. Immagino che il mio barbiere una volta che gli arriverà la lettera di SCF che gli chiede di pagare per la diffusione nel negozio della musica in heavy rotation di RDS, dopo le contumelie di rito, si precipiterà a spegnere tutto e a smontare anche gli altoparlanti per maggiore sicurezza. E così faranno tutti gli altri, spero. Liberandoci da queste abitudini degradate e dimostrando nel contempo alle case discografiche che il diritto d'autore come concepito nell'800 è forse da rivedere.

Ma le radio massificate tipo RDS (4 successi di oggi, 3 spot, 4 successi del passato, cioè di 10-20 anni fa, 3 spot, 1 giornale radio in pillole e cosi via all'infinito, ripetendo a intervalli regolari le stesse canzoni, una pratica che è chiamata appunto heavy rotation) non sono neanche il peggio. Con un po' di allenamento si riesce ad astrarsi.

Il peggio sono le radio con i DJ che intrattengono gli ascoltatori, stile radio DJ giù giù sino a Radio Globo di Roma. Ieri per il rito dello shopping natalizio sono andato in un grande supermarket dell'elettronica, catena Euronics, ed era incredibilmente presente di persona proprio un DJ di Radio Globo che faceva il programma in diretta. Programma che veniva diffuso da qualche centinaio di altoparlanti nel grande ambiente (una specie di enorme hangar) stracolmo di oggetti di elettronica e per la casa e di romani intenti a spendere per rispettare la tradizione del Natale. Il volume era ovviamente altissimo, era più o meno come fare acquisti dentro ad un locale di musica techno. Era difficile persino parlare con il cassiere (eppure il dialogo in questi casi non è particolarmente ricco di sfumature).

A parte che a me, che ho abbreviato la permanenza al minimo indispensabile creando un danno economico ad Euronics (e un risparmio inatteso per me, anche se temo temporaneo) questo ambiente inospitale al massimo grado, che raggiungeva l'apoteosi nel settore televisori a schermo piatto (una parete intera grande come quella di un cinema con lo schermo gigante, totalmente tappezzata di video LCD e plasma) con la cacofonia dell'audio di 1000 televisori che si mischiava alla musica commerciale di Radio Globo, apparentemente non dava fastidio a nessuno. Eppure sono convinto che se avessi dato retta al mio istinto, e avessi staccato la presa di corrente del mixer di quell'infausto DJ , un enorme sospiro di sollievo si sarebbe sollevato all'unisono nell'immenso hangar. Spero arrivi anche a Euronics, e presto, la bolletta di SCF.

(Il quartetto d'archi del quale è stata presa l'immagine  è il quartetto Intermezzo, inglese, il loro sito è http://www.intermezzostringquartet.co.uk/)
 

venerdì 4 dicembre 2009

Non capisco

Non capisco perché i magistrati siano così preoccupati. D'ufficio e per legge viene tolto loro fino al 40% del lavoro, senza che lo abbiano chiesto e ne abbiano alcuna responsabilità, e potranno dedicarsi solo ai nuovi processi.

alice and the queenNon capisco perché invece non siano affatto preoccupati gli elettori del centro destra, all'epoca, nel lontano 2006, così indignati per l'indulto, alla notizia che gli imputati dell'1% dei processi almeno sarà libero alla data di pubblicazione della nuova legge sul "processo breve". Non so se è vero che saranno l'1% o se saranno di più, ma essendo i processi pendenti oltre 3 milioni e 300 mila, gli imputati che beneficeranno di questa inattesa amnistia e torneranno liberi da ogni pendenza saranno come minimo 33 mila, che non mi sembrano poi così pochi.


Non capisco perché sarebbe una così grande emergenza la durata troppo estesa dei processi, se poi quelli in corso che sarebbero interessati dal provvedimento sarebbero solo l'1% del totale.

Non capisco perché la Lega e i suoi elettori dovrebbero essere soddisfatti del fatto che è escluso il reato di immigrazione clandestina: è un reato introdotto qualche mese fa e quindi evidentemente i processi non possono essere ancora andati in prescrizione.

Non capisco perché si fanno leggi retroattive come se fosse una cosa normale e nessuno fa obiezioni su questo. Dalle mie rudimentali cognizioni di diritto sapevo che le leggi retroattive non si devono fare, è come cambiare le regole del gioco mentre si gioca.

Non capisco perché la opposizione al provvedimento sembra essere pregiudiziale e assoluta. Se non fosse retroattiva sarebbe una delle tante leggi a tutela dei diritti dei cittadini. Come si mette (o si dovrebbe mettere) un termine massimo per altre pratiche in carico alla pubblica amministrazione, come l'approvazione di un progetto edilizio, così si da' un termine anche per la "pratica" più importante che può coinvolgere un cittadino.

Non capisco perché provvedimenti come questi di tutela del cittadino siano in Italia proposti dalla destra e non dalla sinistra, come nel resto del mondo, e perché invece la sinistra sembri invece essere dalla parte dello stato contro il cittadino, anche quando lo stato è palesemente inefficiente e non è in grado di arrivare a un giudizio definitivo in un processo neanche in sei lunghi anni.

Non capisco perché pare che nessuno faccia chiarezza sui numeri e dica in modo semplice che esistono tre numeri per valutare l'impatto dei provvedimenti: a) la percentuale di processi che andrebbero oltre i termini il giorno di pubblicazione sulla Gazzetta ufficiale, per effetto della retroattività della legge (il numero di Alfano), b) il numero stimato di processi che andrebbero in prescrizione dopo l'approvazione della legge, perché il tempo rimanente non sarebbe sufficiente, nelle sedi giudiziarie meno efficienti o con meno personale (il numero dell'ANM), c) il numero stimato medio di processi che andrebbero in prescrizione dopo l'approvazione della legge, perché il tempo rimanente non sarebbe sufficiente, considerando tutte le sedi (il numero del CSM).

Non capisco perché la durata dei processi sia dipendente, secondo l'associazione dei magistrati, solo dalla carenza di risorse o dalla complessità delle leggi, visto che appunto, come certificato dal CSM, ci sono sedi che non hanno arretrati o quasi e altre che ne hanno molti, e sono sedi di dimensioni e geografia variabili.
  

venerdì 27 novembre 2009

Il primo blocco del traffico virtuale

Il primo blocco del traffico virtuale è stato sperimentato in questi giorni dal Comune di Roma.

Avendo verificato lo sforamento dei dati relativi all'inquinamento atmosferico, e in particolare alle polveri sottili, la nuova amministrazione, dopo qualche resistenza, ha dovuto decretare il cosiddetto "blocco della circolazione dei veicoli più inquinanti".
Essendo però convinti che il motivo dell'inquinamento non siano i veicoli inquinanti, ma il bel tempo (così è stato detto), non potendo per decreto bloccare il bel tempo e non volendo annoiare i romani, e in particolare i loro elettori, con questo rituale della chiusura del traffico, l'assessore alla mobilità e il sindaco hanno optato per un nuovo originale sistema: appunto il blocco del traffico virtuale.

Come funziona?Per prima cosa bisogna avere cura di non dirlo a nessuno. Non ai giornali radio locali o ai vari notiziari sul traffico, il minimo indispensabile ai giornali, e opportunamente ridotto e nascosto sul cosiddetto portale della mobilità, vale a dire il sito dell'Atac.
Dove la sera tardi di mercoledì 25, per esempio, non compariva nulla sul giorno dopo (la conferma del blocco l'hanno poi messa la mattina, confidando sul fatto che i romani dopo fatta colazione si collegano a Internet per vedere le novità). Oggi 27 novembre ancora meglio. Ieri sera compariva un rassegnato ma sempre vagamente allarmistico "smog alle stelle, continua il blocco del traffico". Poi devono aver detto ai responsabili dell'Atac nostalgici della vecchia gestione, che non è il caso di disturbare i romani e oggi la notizia è stata opportunamente smussata e soprattutto nascosta. Accedendo infatti al portate alle 8 e 30 di mattina si trovava questo annuncio:

Smog, anche oggi nella Fascia Verde stop ai veicoli più inquinanti
7 nov - Ancora un blocco del traffico, oggi. Il divieto di circolazione dalle 7,30 alle 20,30 fermerà come sempre i veicoli più inquinanti all´interno della fascia verde: per la categoria euro 0 autoveicoli a benzina e diesel, motoveicoli e ciclomotori a due tempi e minicar diesel e benzina; stop anche per autoveicoli e minicar diesel euro1 e per le auto diesel euro2.


L'annuncio però non è in evidenza, è nel riquadro "la giornata" che è a rotazione, quindi può anche capitare di non vederlo, e bisogna cercarlo (e non è tra gli annunci in evidenza "ultim'ora"). Vedi lo screen shot qua sotto, preso alla 8:57 del settimo giorno consecutivo di blocco del traffico (situazione di emergenza, si direbbe).

atac-portale
La seconda cosa da fare per rendere il blocco virtuale è evitare accuratamente qualsiasi controllo. Posti di blocco, vigili che chiedono i documenti durante il blocco peraltro più lungo sperimentato a Roma (7 giorni finora) non si sono visti. Può darsi che lo facciano di nascosto e che arrivino poi a romani in Euro 2 decine di multe nei mesi prossimi, ma non era esattamente questo l'obiettivo.

Il risultato è che la grande maggioranza dei veicoli che non dovrebbero circolare circolano lo stesso tranquillamente, in gran parte perché non sanno neanche che c'è il blocco, gli altri perché hanno visto che non ci sono i controlli.

Sarebbero tutti contenti di questa brillante idea se anche le polveri sottili fossero virtuali. Purtroppo sono reali e quindi non si curano affatto del blocco virtuale. Che difatti continua per un numero di giorni tale da dimostrare la sua totale inutilità. In attesa della pioggia.

E i romani protestano? Ma no, nei confronti dell'inquinamento hanno lo stesso atteggiamento dei fumatori nei confronti della loro tanto deprecata abitudine. Cercano di non pensarci.

domenica 15 novembre 2009

Esame di dialetto

viale monza"Non si abita un paese, si abita una lingua. Una patria è questo e nient'altro" . Così afferma una nota massima del filosofo e pensatore (non propriamente progressista) E.M. Cioran.
Coerentemente con questa evidente ma non troppo diffusa verità la Lega sta procedendo con metodo e costanza alla diminuzione (o demolizione?) del ruolo dell'italiano, inteso come lingua italiana, nel nostro amato paese. Per il suo obiettivo di lungo (o di medio?) periodo, vale a dire la secessione della Padania, è necessaria anche una nuova lingua che distingua la nuova patria.

La nuova lingua, nella semplicistica visione dei nostri leghisti, è appunto il dialetto. Esami d dialetto per i professori che vogliono insegnare in Padania, esami di dialetto per gli extra-comunitari (o anche per i comunitari?) che vogliono la cittadinanza o semplicemente il permesso di soggiorno, trasmissioni TV in dialetto, giornali in dialetto, canzoni in dialetto al festival di Sanremo o a X-Factor.

Una strategia però semplicistica, e quindi puramente di comunicazione (serve per far parlare gli altri della Lega e tenere alta la tensione dei loro seguaci sul tema secessione).

enzo_jannacciProviamo con un esame di dialetto. La versione che propongo è sicuramente in un dialetto padano. Gli aspiranti padani secessionisti, o semplicemente i leghisti DOC d'accordo con i loro capi, oppure i curiosi, sono pregati di rispondere (ma senza andare a cercare la soluzione su Internet, come fanno i liceali con le versioni di latino):

A. Di quale città è questo dialetto
B. Breve sintesi dei contenuti di questo brano (è una canzone di un autore che non posso dire chi sia, ma le sue iniziali sono E.J.)
C. Cosè il basell
D. Chi sono i ruchetee

Gli abitanti da 3 o 4 generazioni nella città che si esprime in questo dialetto (che non posso dire, dico solo che i tifosi della Roma la definiscono così: "Dio creò M. poi, la immerse nella nebbia") dovrebbero poter capirne il senso senza problemi (penso). Gli altri abitanti della Padania, veneti, piemontesi, emiliani, non saprei.

T'ho compraa i calzett de seda cun la riga nera
te caminavet insema a mi comme una pantera.
Ti su del basell, mi gio' del basell: se l'era bell!
Ti senza capel, mi cont el capel, me s'eri bell!
 
Caminavom semper insema.
La gent che la pasava la ghe' guardava, la se voltava e le diseva:
"va quel li', el gh'ha compraa anca la stola, el dev ess on poo on pistola".
Quel pistola seri mi.

T'ho vist poer crist, inciuda' su quatra assit
anca mi me sont vist inciudaa su quatra assit,
coma ti pes de ti anca mi me sont vist inciodaa,
inciodaa come un pover crist.

Te scareghi ogni sera in piazza Beccaria
li te mostrett de sott banc la tua mercanzia
ti sul marciapee, mi denter el cafe' di ruchetee!
Ti a fu su i dane, mi a spend i dane coi ruchete!

Tuti i volt che semm insema ge sempre un qualchedun
aca in un cantun
che el me varda e me dis:
"va quel li', el gh'ha la dona che la rola, el dev ess on poo on pistola".
Ah? Saria mi el pistola? El pistola te se ti.
Te ghe la miè de mantegni
Te lavoret tutti el di'...
Ah? Saria mi el pistola? El pistola te se ti.


 

martedì 10 novembre 2009

I misteri di Roma un anno dopo

Un anno fa avevo dedicato alcuni post ad una selezione dei misteri di Roma, opere incompiute, surreali e incomprensibili contraddizioni della capitale d'Italia. Ma cos'è un anno a confronto della eternità della città eterna o della deriva dei continenti? E infatti dopo un anno è tutto rimasto più o meno come prima. Ecco il rapporto.

Cominciando dall'unico mistero in parte svelato e in parte evoluto: i cantieri a Via Emanuele Filiberto.
Come si vede nelle foto sotto, i cantieri, che servivano per aumentare l'aerazione nella rete della metropolitana (e che risalgono a prima dell'inizio delle opere per le olimpiadi di Pechino, che nel frattempo, come si sa, sono anche finite) sono stati ridotti in modo da liberare le rotaie del tram.


Uno dei lavori, quello più vicino all'incrocio di San Giovanni, è stato addirittura completato. Però, sempre per motivi ignoti e non comunicati in alcun modo, la strada è ancora chiusa, ad oltre un mese dal completamento. Collaudo ancora da fare? Stato della pavimentazione da verificare?


In ogni caso nessun effetto (dopo almeno sei mesi) sulla circolazione a Roma. La linea tranviara n. 3, che circola su gomma dall'inizio di questi cantieri, continua a circolare su gomma. Ancora qualche anno e i più giovani questo storico tram, uno dei 3 o 4 ultimi rimasti a Roma, non se lo ricorderanno neanche più.

Via Labicana Roma
Piccole novità (ma già ne avevo dato conto) anche per il ponteggio di maggior durata di Roma (dovremmo essere più vicini ai 10 che ai 5 anni) che avvolge appunto da lungo tempo un grande stabile a Via Labicana 83, proprio davanti alla Basilica di San Clemente e a meno di  500 metri dal Colosseo (aguzzando la vista si vede in basso a destra nella foto che segue). Una zona abbastanza interessante dal punto di vista turistico e storico, direi. E' sempre allo stesso punto (ovvero, lavori ancora da iniziare) ma è passato ad una diversa impresa, lo Studio Ridolfi.

Via Labicana, Roma
Che però non promette molto bene. E' lo stesso che sta portando avanti da anni la costruzione di quel palazzo a Piazza Vittorio di cui parlavo appunto mesi fa. Che è rimasto allo stesso identico punto. Semi-finito. (da qui in poi si possono guardare le stesse foto di un anno fa, tanto nessuno vedrebbe la differenza).

Il Colosseo è allo stesso identico stato (triste) di un anno fa. Solo, un po' più sporco e scuro per il posarsi sulle storiche pietre di un altro anno di polveri sottili e smog tradizionale in genere.

I turisti ci vanno lo stesso, ma chissà cosa pensano di questo monumento così trascurato, delle malinconiche cancellate da cantiere che chiudono le arcate più basse, delle colate di smog rappreso che decorano l'esterno del più famoso simbolo dell'intero mondo occidentale? Forse che noi italiani di oggi non siamo degni custodi di tanta storia?

Lo stabile dell'assessorato alla salute del Comune, il palazzo bombardato, il nostro mistero n.1, è anche lui sempre lì, semi-diroccato (ma utilizzato nella parte in piedi) proprio a metà di Via Merulana.

Stabili anche, con la sola eccezione del cantiere della Metro C a Piazza Venezia (almeno quello l'hanno spostato da un lato della piazza) gli altri misteri ai quali avevo accennato a suo tempo.
Ad esempio gli eterni lavori al muro di cinta del collegio irlandese a Via SS. Quattro. Un luogo di Roma molto bello e trascurato fortunatamente dal turismo di massa, ma che da anni e anni, per motivi come al solito sconosciuti ai più, si presenta così:

Via SS. Quattro, Roma
Per questo immobilismo programmatico e sistematico c'è sicuramente una spiegazione, ma chissà qual è?
Ai prossimi misteri.

sabato 7 novembre 2009

A proposito di ponti

A proposito di ponti, mentre quelle del post precedente erano del ponte di Vyborg, in Danimarca, che collega la Fionia a Copenaghen, le immagini che seguono  si riferiscono al viadotto di Millau, sulla autostrada europea E11 che collega Parigi a Barcellona. Progettato dal noto architetto inglese Foster ed iniziato nel 2001, è stato inaugurato a dicembre 2004 e da allora è operativo. E' il ponte più alto del mondo (345 m., più della Torre Eiffel) ed è lungo 2,5 Km. Le auto transitano sul ponte a 270 metri di altezza, a volte sopra a uno strato di nuvole. Nessun dibattito in Francia o in Spagna, l'hanno fatto e basta, perché ritenevano che fosse utile. E noi abbiamo paura del ponte sullo stretto di Messina.

 

In un giorno nuvoloso


Il ponte com'è ora, da vicino e dall'aereo


Confronto con la Tour Eiffel



Altre immagini





In rete comunque esistono parecchie pagine dedicate a questo enorme viadotto.
Ma c'è da aggiungere che per vedere qualcosa di quasi altrettanto spettacolare si può anche andare meno lontano (ma sempre nella nostra Europa), ad esempio a Genova, coi suoi viadotti che sorvolano la città, costruiti, come al solito, negli anni '60.

mercoledì 28 ottobre 2009

Il ponte sullo stretto

(Tempo di lettura previsto: 3')
Nella disattenzione generale lo scorso luglio è stato istituito il comitato che dovrà presiedere la fase operativa della costruzione del ponte sullo stretto di Messina. E fino alla tragica alluvione di settembre nessuno si è curato del ponte. Poi tutti a dire che è un'opera inutile e che le priorità sono ben altre. Poi di nuovo l'oblio e tutti a discutere su qualcos'altro.

Ponte di Nyborg 2In Italia praticamente tutto è etichettabile "di destra" o "di sinistra", dalla tecnologia (il digitale terrestre è di destra, la TV satellitare è di sinistra) alle auto (il SUV è di destra, il monovolume è di sinistra) ai sistemi per gestire il traffico (le rotonde o "roundabout" sono di sinistra e i semafori sono di destra) e anche le grandi opere infrastrutturali non fanno eccezioni in quanto a sponsor, e il ponte è proprio il simbolo principe della grande opera di destra.

Non so se si arriverà mai alla fine, o almeno a vederlo iniziato, ma, nel caso, cosa accadrà di così drammatico e negativo? Vediamo gli argomenti ripetuti sino a farli diventare ormai luoghi comuni:

1. Non finirà mai, sarà una eterna incompiuta. Bè, questo è possibile, guardando la Salerno - Reggio Calabria e gli eterni lavori in corso a Lagonegro (40 anni!). Bisognerebbe fare un atto di realismo e di umiltà e affidarlo ad una società di costruzioni cinese,  possibilmente quella che ha completato un ponte di lunghezza e complessità quasi simile in 3 anni. O quella che ha costruito lo stadio di Pechino nel tempo che noi impieghiamo a rifare una fermata della metropolitana.

2. I soldi degli appalti finiranno alla mafia. E perché solo questi e non tutti gli altri erogati dallo stato in Sicilia e in Calabria? Se l'unica soluzione per far morire di fame la mafia è sospendere ogni erogazione pubblica a queste regioni diciamolo subito, in particolare ai siciliani e ai calabresi.

3. Non serve a nulla se prima non si fanno le autostrade in Sicilia e non si completa la Salerno-RC, le ferrovie a 2 sensi di marcia ecc. ecc. Ok, sono 20 anni che la sento questa, la SA-RC è sempre lì allo stesso punto e le autostrade in Sicilia pure. Forse bisogna proprio invertire l'approccio, sarà il ponte a imporre la costruzione delle strade ai due lati, come avviene sempre in Italia (lavoriamo bene solo sotto emergenza) e magari la Salerno-RC si deciderà a passare da un'altra parte, abbandonando Lagonegro.

4. E' zona sismica il ponte crollerà. Avete presente Los Angeles e tutta la California? Oppure Tokyo? Mi risulta che siano zone sismiche peggio dello stretto, eppure sono piene zeppe di grattacieli e ponti. Se non ci fidiamo dei calcoli degli ingegneri e dei programmi di simulazione che utilizzano diciamocelo subito, ma per coerenza andiamo ad abitare in un prefabbricato di legno ad un piano.

5. Il ponte sarà un monumento nel deserto e tutti continueranno ad utilizzare i traghetti. Un precedente c'è, il ponte tra la Danimarca e la Svezia, qui (nonostante il pedaggio sia piuttosto salato) i traghetti sono spariti in pochi anni e il ponte è diventato un elemento di unificazione molto potente tra i due territori, appartenenti addirittura a due paesi diversi che si sono spesso combattuti in passato.

6. Costa moltissimo e non è una priorità. Questo ultimo è l'argomeno principe "tanto non ci sono i soldi". Non è vero, per uno Stato ci sono sempre, Casomai è una questione di priorità. Prima bisognerebbe .. a) completare la Salerno - RC (ancora! ...) ,,, b) rilanciare lo sviluppo del mezzogiorno (magari aiuterà lo scopo proprio questa nuova unificazione fisica dell'Italia) oppure, perchè no, prima bisognerebbe risolvere il problema degli X milioni di famiglie sotto la soglia della povertà. Con questi ragionamenti nessuna opera pubblica si dovrebbe fare mai, non il ponte, ma neanche l'Auditorium di Roma, o l'Ara Pacis, ma neanche in passato il Palazzo dello Sport di Nervi, o il Duomo di Milano, o il Duomo di Orvieto (per il quale si erano tassati i commercianti della città) o gli Uffizi o ... potrei continuare per pagine intere di opere superflue, ma senza le quali non concepiremmo il nostro amato paese, o di infrastrutture che sembravano inutili fughe in avanti ma delle quali ora non potremmo fare a meno.
Un paese deve fare, osare, costruire, progettare, guardare al futuro, se no, tanto vale chiudere e aspettare che gente giovane venga a sostituirci. Negli anni '60 abbiamo costruito in 4 anni l'autostrada del Sole, ma come abbiamo fatto?

Insomma non vedo proprio tutti questi drammi e rischi in questo famoso ponte, l'unica perplessità, derivante da numerosi e lampanti esempi passati (e presenti), è sulla credibilità della realizzazione nei tempi, che è da noi strettamente connessa al grado di convinzione degli sponsor politici, e nella conseguente facilità che un cantiere diventi eterno.
 

sabato 24 ottobre 2009

La meravigliosa storia del ragazzo più intelligente del mondo. Cap. 6

Sesto (e ultimo) capitolo: Perché i PC si impallano e cosa c’entra questo con la fortunata storia della Microsoft e del suo fondatore?(Tempo di lettura previsto: 8')

Apple imac newSi sarà capito che la possibile spiegazione, quella comunemente fornita, ha a che fare con la posizione di monopolio. Il capitalismo è un sistema molto efficiente, magari con qualche effetto collaterale indesiderato (anche l’aspirina li ha) ma che si adatta automaticamente per mezzo di un sistema a controreazione (feedback). Che però si blocca se un soggetto diventa monopolista. Infatti il noto gioco Monopoli, il capitalismo spiegato ai bambini, si fermava quando uno diventava l’unico giocatore. E infatti nel paese capitalista per eccellenza, gli USA, esiste una potente o presunta tale organizzazione antitrust che ha come scopo nella vita impedire i monopoli.
In questo caso però non è intervenuta, evidentemente. Magari perché il monopolio era più mondiale che domestico, e quindi diventava un non sgradito monopolio USA in un settore strategico. E infatti l’unico tentativo di stoppare il monopolio è venuto proprio dall’Europa, e in particolare da un nostro valoroso ex-commissario europeo, Mario Monti.

Non tutti sono d’accordo. Secondo alcuni ottimisti Microsoft con Windows non ha una vera posizione di monopolio perché esistono nel mondo almeno due valide alternative: Linux e i sistemi Apple. Ma è vero fino a un certo punto. In realtà non sono autentiche alternative. Linux è il sistema per chi vuole spendere il meno possibile ma è disposto a sobbarcarsi un lavoro da sistemista (più di quanto già non dovrebbe fare con Windows). Apple MacOS è l’ambiente per chi non ha problemi a spendere di più per avere il meglio.

Per quelli che vogliono comprare al prezzo più basso e non vogliono avere problemi di leggere manuali e simili, quindi praticamente tutti o quasi, l’unica alternativa è Windows.
linux_insideQuindi è un monopolio. Per ora. Perché difatti non è neanche questa la spiegazione. Microsoft ha una posizione di monopolio ma non si comporta affatto come tale. Un monopolista se ne sta tranquillo rinnovando il meno possibile, tanto i clienti non hanno scelta. Invece MS si ingegna di cambiare sistemi che andavano quasi bene (XP) con altri male accolti da tutti, magari a torto (Vista) e dopo solo tre anni eccone ancora un altro (Windows 7). Perché tutto questo agitarsi?

Perché non si sentono affatto sicuri. Lo sanno che i PC con i loro sistemi si impallano e che potrebbe sempre succedere che qualcuno trovi un sistema per ridurre la loro quota di mercato. In fondo è successo già con Linux (chi avrebbe mai scommesso sul sistema open di Linus Torvaldt, sconosciuto studente finlandese?) e anche con Mozilla Firefox.
Quindi non è vero che non ci provino a rendere più stabili i loro sistemi. Ci provano, con alterni successi.
Se non ci riescono è per un altro paradosso di origine di tutta la vicenda PC. Vi ricordate del sistema VMS, l’ottimo sistema operativo della Digital che è poi la base di tutti i sistemi Windows dal W2K in poi? Perché mai quando era Digital era stabile come un pezzo di granito ed ora nella sua nuova vita si è trasformato in quella cosa con cui ci troviamo a combattere? Cutler e gli altri progettisti hanno perso la mano passando alla Microsoft?

Niente affatto, il VMS era un sistema per ambienti usati da più utenti contemporaneamente, spesso professionali, o da utenti singoli ma sempre per uso professionale, ed era sempre presente un servizio di manutenzione, spesso con un sistemista dedicato. Che effettuava gli aggiornamenti, interveniva nei rari casi di errore o nei rarissimi casi di blocco, curava le nuove installazioni.

Il software applicativo e le utility che venivano installate erano realizzate in gran parte (quasi tutte) dalla stessa casa produttrice. La interazione con il sistema operativo era provata a lungo, ed era assai improbabile che dalla combinazione uscisse fuori una condizione nuova, non prevista, non gestita. Quella che appunto mette in crisi il sistema. Che, dal nostro punto di vista di utenti, si “impalla”.
macbookair-4The Art of Software TestingQui sarebbe necessario fare un piccolo excursus su come si fa ad essere sicuri che un certo programma software funzioni. In altre parole come si fa il “software testing”.Ci provo. (Ma volendo si può anche saltare alle conclusioni). Un programma non è altro se non una serie di condizioni, di “se” (come dimostrato da un noto teorema di logica matematica, il teorema di Jacopini-Bohm, due scienziati italiani, ma non vorrei spaventare nessuno, lo cito solo). Le possibili ramificazioni sono molte, e crescono esponenzialmente se i programmi si compongono tra loro per poter fornire funzioni più complesse.Se il computer attraverso queste diramazioni segue i sentieri principali, quelli pensati e progettati dal programmatore, tutto funziona perfettamente. Perché il programmatore per primo aveva percorso quei sentieri. Se però si prende una strada diversa, un bivio non previsto, si può anche arrivare ad una combinazione non gestita, che provoca un errore (un “crash” si diceva una volta) o più semplicemente quelle antipatiche situazioni di mouse bloccato o PC che gira furiosamente senza riuscire ad andare da nessuna parte.Come si fa ad evitarlo? Ad avere programmi senza errori o, come dicono gli americani, “bug free”? Semplice, direte voi, basta provare tutte le combinazioni possibili, non saranno mica infinite. No, non sono infinite, ma sono veramente tante, e per provarle tutte c’è bisogno di molto tempo (e molti soldi). I software bug free, quelli della NASA (dicono) o quelli che una volta sui facevano nelle “fabbriche del software” (ma solo sulla carta e nei sogni dei responsabili del controllo qualità) o comunque a basso tasso d’errore richiedono un ambiente di sviluppo e test dotato di un sistema di controllo dei test. Cerco di spiegarmi meglio.I test si progettano, e li progettano persone. Se sono gli stessi programmatori i test vengono malissimo, perché fatalmente seguono il percorso più logico secondo i loro processi mentali. Se sono altri, magari anche un po’ imprevedibili se non addirittura limitati, vengono meglio. Ma per essere sicuri del grado di copertura occorre un “coverage analyzer”, un sistema che esplora tutti i percorsi possibili del sistema e poi, una volta lanciato il test completo (che si chiama “test di sistema” infatti) calcola la percentuale di percorsi che sono stati effettivamente seguiti. La copertura del test. Che deve essere la più alta possibile compatibilmente coi tempi.

Proviamo a vedere se funziona
Troppo complicato? Non importa. Tanto nessuno (forse solo la NASA e i produttori di aerei, almeno speriamo) produce più il software così. Microsoft e tutti gli altri usano un sistema molto più semplice, basato sulla statistica dei grandi numeri, che può capire chiunque. Un primo test lo fanno loro nel laboratorio di produzione, gli stessi programmatori o un cerchio di tester appena più ampio. Poi, una volta verificato che più o meno riesce a “stare in piedi” per le funzioni principali, lo passano al “beta test”. Ovvero ad una moltitudine di utenti più o meno professionali che, gratuitamente o quasi, per la sola passione di provare in anteprima un nuovo prodotto, lo iniziano ad usare. Essendo molti statisticamente percorrono molte diramazioni e trovano molti errori e, alla fine del beta test, il software sarà ragionevolmente stabile.

Funziona meglio o peggio dei sistemi di test professionali che descrivevo prima? Più o meno uguale. Quelli non li seguivano mai fino in fondo perché il cliente premeva e il progetto era sempre in ritardo, questi hanno la forza dei numeri e del miglioramento progressivo.

Allora perché, se il software è testato abbastanza bene, comunque il PC si impalla? Ma perché c’è ancora un’altra variabile: la interazione tra i vari programmi sullo stesso povero PC. Di ogni provenienza, buoni e non buoni, o addirittura malevoli. Per quanto un beta test sia lungo e ampio tutte queste combinazioni non le potrà provare neanche di striscio. Le proveremo noi. Diventando noi stessi involontari protagonisti del test. Quando inviamo le segnalazioni a Microsoft (se abilitiamo questa funzione).

Ed è questo il motivo per il quale i sistemi Apple sono migliori. Perché la maggior parte del software è proprietario, è della stessa Apple, e anche quello non Apple non è così variegato. Le interazioni e combinazioni sono quindi in numero molto più limitato. Oltre al fatto che costa di più perché c’è un motivo.

Tutto qui? No. Il paradosso di fondo è ancora un altro. E’ la divaricazione sempre più grande tra le funzioni disponibili e quelle che usa l’utente. Quando compro una nuova macchina fotografica digitale o un nuovo telefonino mi affascina sempre leggere nel libretto di istruzioni il numero incredibile di funzioni che la quasi totalità dei compratori e delle compratrici non si sognerà mai di usare. La sincronizzazione del flash sulla seconda tendina (virtuale) in una compatta digitale. Il lettore di codice a barre su un telefonino. Ma ce ne sono a decine.

Su un PC siamo a due o tre ordini di grandezza oltre. I primi computer, quelli usati per andare sulla Luna (sì, ci siamo andati) erano meno potenti di quelli inseriti in un telefonino di oggi, ma erano usati al 100% delle loro possibilità. La potenza e la memoria del nostro PC è usata invece ad una frazione del totale (10%? 1%? Forse meno?) e resterebbe inutilizzata se non ci pensassero tutti quei programmi, che magari neanche abbiamo installato noi, che vanno allegramente in conflitto tra di loro facendo impazzire il povero PC che salta dall’uno all’altro soccombendo poi inevitabilmente e bloccandosi senza speranza.

La maggior parte delle persone compra un PC per poche funzioni: scrivere qualcosa, navigare su Internet, inviare la posta elettronica. Per queste funzioni non servirebbe neanche un PC, basterebbe un browser (come Internet Explorer) e un ambiente in rete come Google Docs.
Qualcuno poi crea presentazioni o fa calcoli e altro con un foglio elettronico, ma basta ancora Google Docs. Ecco, per gestire immagini e video, o per elaborare musica serve un PC “proprio”, almeno per ora. Ma comunque anche queste applicazioni non “saturano” affatto la potenza di un moderno PC.

Ma tutto il sistema è andato e va in un’altra direzione: fornire sempre più potenza e sempre più funzioni, non importa se i clienti le useranno o no. E’ il modello “wasting” (spreco) che secondo alcuni analisti controcorrente (di Wired) si coniuga con la libertà. E forse è pure vero.

Quindi, tirando le fila, i PC ce li teniamo così, e ogni tanto fatalmente si impalleranno, perché:
  • c’è un solo produttore e non abbiamo il beneficio della concorrenza
  • l’ambiente è più complesso di quello di un sistema degli anni ’80 dove c’era un sistemista dedicato, e noi non possiamo permetterci un sistemista dedicat
  • più usiamo il PC e più ci mettiamo dentro funzioni e più ne aumentiamo la complessità e quindi il rischio di instabilità
  • non vogliamo usare ambienti chiusi (con solo il browser) tipo “terminale” , anche se ci basterebbero, perché vogliamo la libertà di avere un nostro piccolo mondo senza vincoli e regole esterne
  • non abbiamo nessuna intenzione di perdere il nostro tempo (molto del nostro tempo) leggendo le istruzioni e manutenendo il PC
E una possibile soluzione è quella suggerita dalle immagini di quest'ultimo capitolo: vincere la pigrizia, decidersi a spendere un po' di più e passare al Mac.

Tutto ciò premesso, che tipo di PC ho usato per scrivere questo lungo post? Un Mac della Apple?
Ebbene, no, un normale notebook con (orrore) Windows Vista. C’è un Mac a casa mia e quindi parlo per esperienza e non per fede. Ma non è il mio.

E perché questa incoerenza? Perché negli anni ho selezionato una miriade di programmi di utilità che mi servono per i miei lavori e ritrovarli tutti in ambiente Mac comporterebbe un sacco di tempo e un sacco di soldi. Almeno credo, perché anche verificarlo cercandoli richiederebbe un sacco di tempo. Quindi c’è ancora un altro motivo, lo stesso che fa la fortuna da sempre del ragazzo più intelligente del mondo: l’inerzia dovuta al costo del passaggio, il vantaggio di chi arriva prima.

E il ragazzo (ormai uomo) più intelligente del mondo? Nel frattempo è diventato anche il più ricco del mondo. E, a differenza di altri, non si è buttato in politica. Ma ha fatto quello che avremmo fatto o faremmo tutti noi se avessimo la intuizione geniale che ha avuto lui negli anni ’90 e la conseguente fortuna: a 50 anni o poco più ha smesso di lavorare e si è dedicato ad una sua fondazione benefica. E ha lasciato qualcun altro a battagliare con i concorrenti (che ora sono Oracle, Google, Sap …), cercando di fare incursioni nei loro territori di analogo semi-monopolio.

Tutte le puntate in ordine cronologico:

Premessa: L'oggetto misterioso (ovvero: Perché i PC si impallano?)

Primo capitolo: L'importanza di essere al posto giusto al momento giusto

Secondo capitolo: Il PC dilaga

Terzo capitolo: Il miglior programma per PC mai realizzato

Quarto capitolo: Apple e Digital alla riscossa

Quinto capitolo: Il tradimento

Sesto capitolo: Perché i PC si impallano e cosa c’entra questo con la fortunata storia della Microsoft e del suo fondatore?

sabato 17 ottobre 2009

La meravigliosa storia del ragazzo più intelligente del mondo. Cap. 5

Quinto capitolo: Il tradimento(Tempo di lettura previsto: 5')
Microsoft_Windows_Logo_from_1992_to_2000Gli anni '90 si aprivano con un grande successo commerciale, quello del già citato Windows 3.x (3.0 e 3.1), ma sotto i peggiori auspici per il futuro della allora ancora relativamente piccola Microsoft. La IBM sotto le cui ali aveva prosperato e fatto affari, aveva deciso che la ricreazione era finita e che era giunto il momento di riprendere in mano il gioco. E aveva iniziato lo sviluppo del sistema operativo definitivo per tutti i PC: l’OS/2.

I competitori di IBM erano ben aggressivi, Digital e Apple sembravano ancora in grado di portare l’assalto alla incontrastata supremazia di “big blue” e, nei centri di ricerca e negli ambienti di grafica computerizzata avanzava un terzo incomodo, anzi numerosi terzi incomodi, accomunati dalla scelta di utilizzare Unix, quel sistema operativo realizzato oltre dieci anni prima da un ricercatore dei Bell Laboratories, Ken Thompson, che in realtà non si occupava strettamente di informatica ma che, stanco e annoiato dai limiti dei computer che gli toccava usare (per la cronaca era il Digital PDP-11 con il sistema operativo RSX-11) aveva deciso di impiegare un po’ del suo tempo a realizzarne uno tutto suo, lo Unix appunto. Certo prima aveva dovuto impiegare un altro po’ di tempo, ma questa volta con l’aiuto di un collega, a realizzare un linguaggio di programmazione ad hoc, che era appunto il linguaggio C. I terzi incomodi erano Sun, HP, la stessa AT&T, Olivetti, anche la francese Bull, parecchi, Unix costava poco e rendeva molto in termini di immagini, era “aperto” e, non si sa perché, alla fine degli anni ’80 questa era considerata una caratteristica fondamentale.

Il ruolo per Bill Gates e la sua Microsoft era disegnato dalla IBM: partecipare allo sviluppo di OS/2 portando in dote il proprio know-how. E poi realizzare alcuni applicativi per il nuovo ambiente, cominciando dal “porting” del suo Excel e continuare così come partner minore.

Un ruolo comodo e tranquillo, ma gregario, al quale il ragazzo più intelligente del mondo (non aveva all’epoca ancora 40 anni) si è ribellato, facendo la fortuna sua e di parecchie generazioni di suoi discendenti a venire.

“Volete un nuovo sistema operativo?”, “Dio solo sa quanto ce ne sia bisogno, ma possiamo farlo noi in molto minore tempo, vi anticipiamo e vedremo chi resterà sul campo”.
Una sfida temeraria ma che partiva da qualcosa di consolidato, stabile, sul quale si poteva costruire il nuovo, con qualche speranza di successo.

Vi ricordate il sistema VMS della Digital del quale parlavo alcune puntate fa? Un ottimo sistema, a 32 bit, come avrebbe dovuto essere l’OS/2, con una architettura funzionale e completa, da cui l’idea meravigliosa del nostro: assumiamo i progettisti e facciamolo rifare in ambiente Intel (Intel è l’hardware dei PC IBM, come noto). Loro sanno come si fa un sistema compatto, alla IBM non è detto, e arriveremo primi. D’altra parte la Digital stava entrando proprio allora (siamo all’inizio degli anni ’90) in quella fase di stallo nella quale non sapeva bene come sfruttare i suoi gioielli (il VMS, ma anche il nuovo hardware Alpha a 64 bit, che sarebbe ancora all’avanguardia oggi, a quasi vent’anni di distanza) e che le sarebbe stata fatale (ma questa è un’altra storia).

Si poteva fare, e si è fatto, il capo progetto delle ultime versioni del VMS, Dave Cutler, è arrivato alla Microsoft con (immagino) alcuni dei suoi progettisti, ed è iniziato lo sviluppo di quello che sarebbe stato WNTWindows New Technology, secondo la più accreditata spiegazione dell’acronimo (che è sempre rimasto non ufficiale). Ma che in realtà era una citazione da un noto film, ed un auspicio. Nel capolavoro di Kubrick 2001 Odissea nello spazio il calcolatore che prende il possesso dell’astronave si chiamava difatti HAL, erano le tre lettere che precedono quelle della prima società di computer, la IBM. Ora il riferimento era ovviamente al VMS (Virtual Memory Storage, sarebbe la sigla) e le lettere erano le tre successive nell’alfabeto inglese.

Come è andata si sa, il WNT non è arrivato prima di OS/2, casomai dopo (1996) a parità di funzionalità, e parecchio dopo (2000) con la sua prima versione effettivamente commerciale e di vasta diffusione (che era il Windows 2000) e non era neanche così superiore e così stabile rispetto al rivale, ma più che la gara per il nuovo sistema poté l’inerzia dell’ormai enorme parco installato.

Solo grandi organizzazioni che potevano spendere forti somme nell’assistenza tecnica per il passaggio da un sistema all’altro, con tutto il loro corredo di applicazioni già installate, file utente importantissimi e da salvare (e che gli utenti si erano ben guardati dal salvare) e interfacce che stavano su per miracolo con i sistemi centrali (era tutto client / server, all’epoca). E poi la IBM si incaponiva ancora con la sua rete proprietaria token-ring, e voleva far cambiare anche quella.

E anche quando le potevano spendere si chiedevano (giustamente) perché avrebbero dovuto spenderle e se forse non era meglio attendere i nuovi sistemi man mano messi a disposizione da parte del fornitore originario del sistema che stavano usando, Microsoft appunto, e quindi i vari Windows 98, Windows ME, fino appunto al mitico Windows 2000 o Windows 2K.
Avevano sperimentato che, pur nella instabilità che caratterizzava tutti quei sistemi, il passaggio dall’uno all’altro, l’upgrade, era una operazione che di solito si riusciva a fare; addirittura, in alcuni casi sembrava che poteva pensarci addirittura l’utente da solo.

Il risultato è stato che solo poche organizzazioni ciecamente fedeli a IBM (banche e simili) si sono buttate nella migrazione a OS/2. E figuriamoci se l’hanno fatto i privati, quelli che avevano un PC a casa. Qui (ma anche in molte organizzazioni) un’altra differenza la faceva il copyright del software. Che Microsoft ha sempre lasciato astutamente senza protezioni (almeno sino a non molti anni fa) seguita in questo da molti altri produttori di applicazioni. L’aspettativa (corretta) era che IBM non sarebbe stata così di manica larga e quindi, perché rischiare di dover non ricomprare, ma proprio comprare tutto?

E poi, per quali motivi cambiare, per quali vantaggi sostanziali? In fondo la stessa IBM ai tempi dell’accordo di ferro con Microsoft aveva già dato a tutti la nuova funzionalità più importante, l’ambiente a finestre e il mouse, con il Windows 3.0/3.1 (1990-92). Certo non era “multitasking” a differenza dell’OS/2, qualsiasi cosa questo volesse dire ma, appunto, cosa vuol dire di preciso “multitasking” e perché non potrei farne a meno?

logo_next_largeE il mercato è rimasto nelle mani di Microsoft. Che, in pochi anni, grazie a questa unica semplice mossa, è stata lei la società che è riuscita a superare alla fine la grande IBM, numero uno dei computer sin dai primordi, non l’ambiziosa e arrogante Digital convinta (non a torto) di essere la numero uno in qualsiasi tecnologia, non la Apple con le sue idee innovative e il suo approccio marketing, non il sistema operativo del futuro, il sistema aperto, lo Unix. La IBM era ora costretta addirittura ad una pesante cura dimagrante, con decine di migliaia di posti di lavoro in fumo (era arrivata a 440 mila dipendenti nel mondo alla fine degli anni ’80, erano la metà dieci anni dopo).

Quindi lo scenario nel nuovo millennio era ben delineato: un mercato dei PC in crescita inarrestabile, e un solo ambiente operativo, quello di Microsoft, anche perché la Apple negli anni ’90 era entrata in uno dei suoi periodi grigi, Steve Jobs era addirittura uscito nel decennio precedente (fondando una sua compagnia, la Next) e non poteva proporre nessuna alternativa credibile. Mentre la Digital era addirittura uscita di scena, acquistata prima da Compaq (un ex semplice clonatore di PC IBM) e poi dalla ex rivale (disprezzata) HP, che aveva mangiato il pesce Compaq.

Ma non ho risposto alla domanda iniziale: (perché i PC si impallano?). O forse la risposta è già nella storia narrata sopra? Comunque ci torno sopra nella prossima (e ultima) puntata.

venerdì 9 ottobre 2009

La meravigliosa storia del ragazzo più intelligente del mondo. Cap.4

Quarto capitolo: Apple e Digital alla riscossa
(Tempo di lettura previsto: 5')
Facciamo un passo indietro e torniamo a metà degli anni '80, quando il PC IBM sbaraglia il mercato e mette in un colpo solo all'angolo Digital e Apple.

Digital e i miniNessuna delle due multinazionali concorrenti di IBM  rimase però passiva davanti al successo della IBM nel nuovo mercato. Digital decise di concentrarsi nuovamente nel settore che aveva inventato: i minicomputer. L’arma vincente l’aveva già in casa, era il nuovo sistema VAX e soprattutto il sistema operativo VMS. Questo sistema, dovuto a un team di progettisti guidato dal geniale scienziato Hustvedt (che purtroppo sarebbe stato messo fuori gioco qualche anno dopo da un grave incidente di macchina, nel quale perse l’uso della memoria a lungo periodo) è tuttora (seppur non più in produzione da anni) il migliore sistema operativo mai prodotto, di gran lunga superiore agli attuali sistemi Microsoft, ma anche a Unix o Linux. Il fatto che non sia praticamente più in uso è un’altra prova dei paradossi della tecnologia, ma ci torniamo dopo per differenze rispetto ai traballanti sistemi Microsoft. Il VMS poteva essere usato da uno o da 100 utenti assieme, non si impallava e, se proprio si verificava un malfunzionamento in qualche condizione particolare o utility secondaria, questo non era considerato un evento ineluttabile né dai sistemisti né dall'azienda. I sistemisti avevano fatto corsi di "internals" del sistema e avevano una idea non solo di cosa sia un "sistema operativo" ma persino di quello che dovevano manutenere. E se trovavano un errore noto lo risolvevano ricorrendo alla letteratura disponibile o ai forum che li connettevano con tutti gli altri dipendenti della multinazionale nel mondo, oppure, se proprio era un problema non noto, mai accaduto, lo comunicavano alla casa madre che provvedeva ad inviare una "patch" per risolvere il problema e, in attesa, forniva un "workaround" per convivere temporaneamente con esso. 
 
Il MicroVAX
Digital non fece altro che ridurre di taglia il VAX (che era un sistema per piccoli / medi gruppi di lavoro, era grande come una fotocopiatrice da ufficio e costava non meno di qualche centinaio di milioni di oggi) introducendo un sistema ridotto in dimensioni e costi, il MicroVAX, che poteva anche essere utilizzato come stazione di lavoro individuale (VAXStation, essenzialmente per grafica, architettura e progettazione in genere). Il MicroVAX costava fino a un decimo del VAX, era grande come un paio di PC di oggi  uno dietro l'altro (MicroVAX II) ed ebbe un successo enorme per l’epoca, persino per uso in campo militare (poteva anche essere inserito sugli aerei, e garantiva potenze di calcolo prima impossibili). Il MicroVAX è stato anche il protagonista di una interessante storia di spionaggio, che ha visto alcuni di questi sistemi prendere la strada di Cipro, poi attraverso una serie di passaggi con altri OEM, arrivare in Sudafrica per giungere infine in URSS. Alla caduta dell'impero sovietico, pochi anni dopo, però la copia del MicroVAX non era ancora pronta, e la informatica russa era ancora ferma ai sistemi mainframe RIAD, copia degli IBM 360 degli anni '60, e alla copia dei sistemi PDP a 16 bit della Digital degli anni '70. Che avevano però consentito di formare una intera generazione di validi (e creativi, giocoforza) informatici, che sarebbero stati utili alla ripresa di questi paesi dopo la fine dell'impero.

La stagione d'oro della Digital Equipment Corporation
microvax-3600Sospinta dal MicroVAX e dalle scelte nel settore delle reti (la rete locale Ethernet, quella usata ancora oggi da tutti come standard, implementata in accordo con Xerox, le prime reti di computer per lo scambio di informazioni, precorritrici di Internet) la Digital entrò nella sua stagione d’oro, diventando la società di computer a più alta crescita, arrivando addirittura ad assediare la supremazia di IBM a fine anni ’80, quando il fatturato della compagnia arrivò ad ¼-1/5 di quello IBM, in affanno per la perdita di mercato sui grandi computer e per la competizione sui PC.

La Digital puntava esplicitamente alla grande impresa e a rimpiazzare i sistemi mainframe IBM, con nuovi sistemi VAX a prestazioni più elevate, o interconnessi in rete, in cluster (i progenitori degli attuali servers). I sistemisti della multinazionale attaccavano al muro con le puntine ironici manifesti nel quale si autoproclamavano “hostbusters”, cacciatori di host (il nome tipico dei grandi sistemi IBM), facendo il verso al famoso film dell’epoca Ghostbusters (gli acchiappafantasmi).

E per qualche anno, fino ai clamorosi passi falsi di Ken Olsen, peccato di superbia rispetto al nuovo che avanzava (Unix e Internet) il tentativo di assalto al cielo sembrava riuscire. Poi un venerdì nero del 1991 gli uomini e le donne DEC, sbigottiti, appresero in rapida successione, nel pomeriggio inoltrato, prima delle dimissioni di Ken Olsen e poi del suo numero due, l’italiano Carlo Falotti, ed ebbero all'unisono il fondato timore che quell’epoca era finita.
Apple e il Mac
Ma sono andato troppo avanti, a metà anni ’80 la Digital trionfava, e anche la Apple non era da meno. Steve Jobs aveva fatto tesoro del Lisa e l’aveva riproposto, migliorato, con il nome di MacIntosh, o semplicemente Mac, nel 1984. Era il futuro, aveva già tutto quello che faticosamente si è visto sui sistemi Microsoft e IBM solo anni dopo. Mouse, grafica, navigazione a ipertesti (quella tipica di Internet di oggi) e, presto, già l'anno dopo, una nuova versione del Visicalc, potentissima, facile da usare ed accattivante, chiamata Excel. E sviluppata da Microsoft, come già si è visto.

IBM subiva quindi un attacco su tre fronti, i sistemi professionali che si abbassavano di prezzo (non solo Digital VAX e MicroVax, ma anche Sun e HP, con le loro versioni di Unix), il Mac, e i PC compatibili, non solo quelli di Olivetti, ma anche quelli a prezzo ancor più bassi prodotti a Taiwan, ad esempio da una piccola casa americana che avrebbe fatto molta strada, la Compaq.

La reazione di IBM fu affidata in prima battuta ancora una volta alla piccola Microsoft di Bill Gates, che oppose al "nuovo che avanza" uno dei peggiori prodotti informatici di tutti i tempi, il Windows 3.1, pessimo oggetto ma grande successo. In  pratica era un vestito che camuffava il vecchio sistema DOS per dargli un aspetto moderno, e consentire l’uso mediante finestre (windows) e i comandi via mouse. la Microsoft sfruttava la positiva esperienza fatta con Excel in un ambiente a finestre, ma il Windows 3.1 manteneva sotto la superficie i limiti del DOS, tra tutti, due: operare in serie (durante una stampa il PC era inutilizzabile, per esempio), e la instabilità, quel fenomeno, sconosciuto a tutti gli altri sistemi professionali, chiamato anche “spegni-e-riaccendi” o “CTRL-ALT-DEL” (la sequenza di tasti per far ripartire il PC quando entrava in stallo). Una sequenza inventata da un ingegnere della IBM,  evidentemente disperato, per dare comunque una soluzione agli utenti. L'ingegnere si chiamava David Bradley ed è diventato famoso per questa semplice idea.

Oltre a tutto, la interfaccia era praticamente copiata di sana pianta dal Mac, e la Apple non ci mise molto a fare causa per plagio. Perdendola, perché a sua volta aveva copiato dalla Xerox.

La strategia di IBMMa il Windows 3.1 per il gigante IBM ("big blue" era il soprannome) era solo una mossa tattica, per prendere tempo. La enorme multinazionale, con la lentezza del pachiderma, ma altrettanta forza, si apprestava con calma a raccogliere il successo dei PC, prendendo in mano essa stessa lo sviluppo di un nuovo sistema, che doveva superare i limiti del DOS/Windows di Microsoft. Come dire, “fatti da parte ragazzino e lasciami lavorare”.
Momento difficile per Microsoft. La IBM lanciava lo sviluppo del nuovo sistema definitivo, destinato nei piani a diventare lo standard per i PC, l’OS/2 (come dire, il secondo sistema operativo, il primo era il DOS/VSE dei mainframe, l'MS-DOS di Bill Gates solo un incidente di percorso), e la forza commerciale di una compagnia che allora aveva 440.000 impiegati nel mondo, era pronta per la invasione del mercato. Per Microsoft era previsto un ruolo di partner, avrebbe collaborato allo sviluppo di OS/2, mettendo in comune la sua esperienza, e diventando sempre più satellite di IBM, con un futuro di probabile inclusione nel gigante.

Nessun dubbio da parte di IBM nel successo della operazione, che avrebbe fermato Digital, i nascenti sistemi Unix di Sun e HP, e avrebbe consolidato attorno allo standard dominante di IBM il mercato più promettente di tutti, quello dei PC. L'unico dubbio era su quanti mesi sarebbero stati necessari per completare il programma. E Microsoft? Non era neanche contemplato come possibile rivale, era un piccolo partner che poteva solo dire di sì e ringraziare per la fiducia (non del tutto meritata, e anche IBM lo pensava) che ancora veniva accordata.

Come ha fatto il nano Microsoft ha mettere nel sacco il Golia IBM? Come ha fatto il prodotto peggiore a conquistare il mercato sbaragliando il campo dai prodotti migliori?

Lo sapremo nella prossima puntata: Il tradimento.
(Nelle foto la famiglia VAX negli anni '80, VaxStation 2000, il MicroVAX II e il Macintosh 1985)

 

giovedì 1 ottobre 2009

La meravigliosa storia del ragazzo più intelligente del mondo. Cap. 3

Terzo capitolo: Il miglior programma per PC mai realizzato(Tempo di lettura previsto: 2 minuti)

Ma, in fondo, cos'è che rendeva così attraente e desiderabile negli anni '80 un PC, aziendale o personale che fosse, e che ne giustificava l'acquisto? Come dicevo prima, sembra che tutto quello che faceva si poteva fare anche prima, lettere, documenti, posta, ricerca di informazioni (no, questa ancora no: all'epoca Internet (per tutti) ancora non c'era); certo si faceva tutto con maggiore comodità e velocità, ma bisognava perdere tempo ad imparare ad usarlo. La vera cosa nuova, in fondo, era solo una: il foglio elettronico.

Il foglio elettronico era qualcosa del tutto nuovo, anche per i grandi computer. Nasceva da una tesi di laurea di un brillante studente americano, Dan Bricklin, che immaginò e poi realizzò con un socio (nel 1978) una tabella nella quale ogni elemento poteva contenere un numero o una formula matematica, o un testo. In questo modo era possibile per la prima volta, senza conoscere alcun linguaggio di programmazione, gestire il proprio conto in banca, calcolare un mutuo, creare l'archivio dei dischi o dei libri, o pressoché qualsiasi altra esigenza di organizzazione della propria vita e del proprio lavoro. E anche in questa vicenda c'è un ruolo per il ragazzo più intelligente del mondo.

Lo studente Bricklin con il socio Frankston trasse dalla sua idea un prodotto, per PC IBM in primo luogo, e lo vendette con il nome di Visicalc. Altre aziende copiarono e svilupparono la idea. Una, la Lotus, con il nome 1-2-3, dopo aver comprato i diritti da Bricklin e dal socio lo fece diventare il prodotto standard per il mondo IBM PC (e poi fu comprata dalla IBM stessa). Ironia della sorte, come avviene spesso nel mondo contemporaneo il nome di Dan Bricklin, a cui si deve una idea che ha più o meno la importanza della invenzione della ruota, è sconosciuto a tutti (come peraltro quello dell'inventore della ruota).

Pochi anni dopo un'altra piccola azienda ebbe l'idea di fondere la praticità del foglio elettronico (spreadsheet) con la immediatezza dell'uso della interfaccia a finestre (windows) resa da poco popolare da Apple con il Lisa e poi con il primo MacIntosh (1984). Nasceva così il miglior prodotto per PC di sempre, il ben noto e insostituibile Excel, un oggetto del quale, pur sfruttandone di solito le potenzialità al 10%, non si può fare a meno, come sa chiunque l'abbia scoperto (qualche centinaio di milioni di umani).

La piccola azienda che ha sviluppato questo prodotto insostituibile, che sfruttava al meglio, grazie all'ambiente a finestre, la idea geniale originale di Bricklin, era proprio la Microsoft. Excel nasceva per ambiente Apple e veniva commercializzato a partire dal 1985 solo su questa piattaforma, perché il PC IBM la interfaccia a finestre non l'aveva ancora.

Ma proprio questa (allora) piccola applicazione, una delle tante disponibili nel nuovo e rampante mondo "ipertestuale" Apple, sarebbe stata la chiave di volta, o l'ancora di salvezza, per Microsoft da lì a molto poco.


(Nelle immagini un confronto d'epoca su una rivista specializzata tra VisiCalc ed uno dei suoi competitor e il kit Lotus 1-2-3 in versione Cina)

sabato 26 settembre 2009

La meravigliosa storia del ragazzo più intelligente del mondo - Cap.2

Secondo capitolo: Il PC dilaga(Tempo di lettura previsto: 3 minuti)

Sì, dovevamo parlare delle amare sorprese per la IBM, ma prima è necessario ricordare come era la situazione in quegli anni, che stavano ponendo le basi del computer come strumento universale.

La operazione di John Opel fu coronata dal successo. La IBM creò il mercato dei PC che divenne, da fenomeno di nicchia, un segmento importante dell'area computer, e in pochissimo tempo. In realtà fu un successo ancora tutto dentro il mercato professionale, con una presenza ancora marginale del PC per uso privato, dell'home computer. Il fatto è che il PC, non si sa se sotto la regia dell'IBM o in modo casuale (propendo ancora una volta per la seconda ipotesi) aveva intercettato una esigenza di rinnovamento della utenza tradizionale dei grandi computer, i mainframe, che erano terra di monopolio IBM. A differenza dei mini in rete di Digital, che puntavano a rimpiazzarli completamente, i PC potevano aggiungersi ad essi, dando una ventata di modernità e rispondendo ad alcune esigenze diffuse. In pratica l'utente del mainframe usava il PC come un terminale per le applicazioni professionali (tipo la gestione dei conti correnti in una banca), e quindi non cambiava in sostanza nulla per la organizzazione, ma poteva usare il PC anche in locale per suoi scopi individuali, tipo scrivere una lettera, come questa, o per fare calcoli.

Il PC veniva usato al 10% delle sue potenzialità, ma se ne vendevano a carrettate.

Gli altri? Apple non era stata a dormire. Alla fine degli anni '70, il geniale Jobs aveva già avuto la idea vincente, copiandola ancora una volta da qualcun altro. Si trattava dell' Apple Lisa, un computer venduto in non grandi volumi dal 1982 in poi, e solo tra la utenza professionale, ma che avrebbe gettato le basi del nuovo modo di usare il PC.

L'idea geniale era ricondurre l'uso del PC a modi di agire consueti, in particolare ricorrendo alla metafora della scrivania. I documenti (file) erano mostrati come fogli di carta, con scritte o numeri, disposti a caso sulla scrivania e liberamente spostabili e sovrapponibili, e lo schermo era come una finestra scorrevole sulla scrivania, anzi su una scrivania grande a piacere, i caratteri, come nella realtà, erano neri su fondo bianco, potevano comprendere anche disegni o foto, e si poteva scegliere liberamente il documento su cui lavorare, senza perdere d'occhio gli altri, "toccandolo" e "prendendolo". E come si faceva? Usando al posto del dito un puntatore chiamato "mouse" (topolino) per la forma ergonomica che rimaneva nell'incavo della mano.

C'è poco da dire di più, perché è il modo di interagire con il computer ormai usuale per tutti, ma all'epoca del tutto rivoluzionario, perché il PC IBM (come anche i Digital, HP o Unix dell'epoca) avevano una interfaccia "a comandi", con istruzioni in uno pseudo inglese, da imparare con un corso di formazione, e poco accattivanti scritte verdi o bianche su sfondo nero, senza grafica.
Rivoluzionaria ma non originale, perché riprendeva pari pari la interfaccia "umana" messa a punto dai ricercatori della Xerox nei laboratori di Palo Alto, e commercializzata dalla Xerox stessa con il modello Star 100 (o 8000), che però era indicato solo per danarosi istituti di ricerca (perché costava 100 milioni dell'epoca, ed oltre, a postazione).

Il Lisa invece costava più del PC IBM, ma era sempre abbordabile, ed inoltre aveva a bordo interessanti ed esclusivi programmi di grafica e di architettura, che consentivano, per esempio, di progettare a computer l'arredamento di un appartamento.

E la Digital? Anche se il boss Ken Olsen era scettico sulla utilità dei PC la azienda USA si buttò lo stesso nell'agone, proponendo un PC che era per definizione migliore dell'IBM (alla Digital erano molto orgogliosi e convinti di essere superiori), quindi non compatibile.

Il Lisa Apple ebbe un successo di critica ma non di pubblico (come ho detto i compratori erano più che altro gli uffici acquisti delle società, infeudati tipicamente dalla IBM e poco propensi ad osare), mentre il Digital DECstation non ebbe successo né tra la critica nè tra il pubblico. Un flop clamoroso.  seguito del quale la Digital nel 1984 andò proprio a bagno (economicamente parlando), e per la prima volta nella sua breve storia ha dovuto applicare un "salary freeze", cioè un blocco di un anno intero degli aumenti di stipendio programmati (ai tempi d'oro era previsto un aumento tutti gli anni, ai manager restava solo l'onere di stabilire l'entità).

Risultato: l'IBM PC era IL PC, agli altri (Apple, Commodore, Amiga, Sinclair, CPM) rimanevano le briciole o mercati di nicchia, e se si voleva competere bisognava essere "IBM - compatibili".

Uno dei primi compatibili fu proprio dovuto al genio italico, e in particolare a Carlo De Benedetti. L'imprenditore infatti, appena tornato dalla Fiat alla Olivetti, decise (lungimirante) di creare un laboratorio in USA, nella stessa zona dove si stavano sviluppando  le industrie del computer, la in seguito famosa "silicon valley" e lì un gruppo di ricercatori italiani e americani mise a punto il migliore IBM compatibile dell'epoca, l' Olivetti M24, meno costoso e migliore nelle prestazioni dell'originale. Un successo mondiale e la Olivetti salva per la seconda (e penultima) volta.

E la Xerox invece? Che ne ha fatto della sua supremazia iniziale? Nulla, esattamente come per la futura rete locale universale Ethernet, ideata sempre a Palo Alto (e poi ingegnerizzata e venduta, in accordo con Xerox, da Digital).


(Nelle foto, dall'alto, La Xerox Star 8010, una workstation di oltre 30 anni fa che, come si vede, potrebbe essere stata commercializzata anche adesso, l'Apple Lisa 1, il primo mouse (della Xerox Star), i laboratori di Palo Alto)

mercoledì 23 settembre 2009

La meravigliosa storia del ragazzo più intelligente del mondo

Primo capitolo: L'importanza di essere al posto giusto al momento giusto

(Tempo di lettura previsto: 3 minuti)
dec_VT100
Il computer individuale (personal computer o PC), ovvero il computer per la casa (home computer) era un sogno degli anni '70, sul quale molti si sono esercitati da quando, complice la guerra del Vietnam, Intel e Digital hanno sviluppato i primi microprocessori integrati (e miniaturizzati). Proprio un fuoriuscito della Intel, l'italiano Federico Faggin, ha sviluppato quel processore attorno al quale è nato e si è sviluppato il fenomeno PC ad inizio anni '80, lo Zilog Z80. Mentre alla fertile fantasia di Ken Olsen, il professore del MIT e mitico co-fondatore e poi presidente della Digital si deve il primo vero PC, il PDT-01, in pratica un terminale Digital della classe VT100 con all'interno il computer vero e proprio, e come unità di archiviazione un floppy disk, il "disco floscio" antenato dei moderni supporti. Eravamo a metà degli anni '70 e lui, Bill Gates, era uno studente, ma conosceva bene quei computer.

Nella seconda metà degli anni '70 due ragazzi americani, entrambi genialoidi e di nome Steve (Steve Jobs e Steve Wozniak), uno ancora studente e l'altro appena assunto alla HP, si rinchiusero nel garage di casa Jobs con il preciso obiettivo di progettare e costruire il primo vero PC. Non erano soli perché altri ci provavano negli stessi anni (Commodore, Amiga, Psion), ma il loro progetto si sarebbe dimostrato vincente. Trovati fortunosamente dei finanziatori riuscirono a mettere sul mercato, dopo diversi tentativi e iniziali difficoltà, il primo vero PC alla portata dei privati (il Digital PDT-01 era ancora un componente professionale, acquistabile solo se l'investimento era giustificato da un ritorno in profitti o da organizzazioni di ricerca e simili). Era l'Apple II (1977) seguito nel 1983 dal più usabile e più economico Apple IIe, primo vero successo nel settore dell’home computing. Così noto il IIe rispetto ai predecessori (c’era stato anche un quasi prototipale Apple 1 nel 1976) che per anni è girata la leggenda che il modello IIe fosse il primo Apple e che il futuro genio del marketing Jobs lo avesse chiamato "secondo" per rassicurare gli acquirenti.

Il PC era nato e si sviluppava, era tutt'altro che un fenomeno di massa, ma attirava finanziamenti e costruiva attorno a sé un nuovo mercato, ma qui entra in scena un altro personaggio, un "visionary" come dicono gli americani, che non significa "visionario" ma piuttosto "idealista", dove l'ideale è però tipicamente incentrato sul successo e sul denaro. In questo caso però qualcosa di visionario, a giudicare dai risultati. c'è stato. Si chiamava John Opel ed era il capo (il CEO) della IBM, la prima casa di computer dell'epoca, che superava la seconda (la Digital, che aveva inventato i mini-computer) di almeno 10 volte. Opel era un simpatico signore, appassionato di golf, posato e realizzato nella sua invidiabile posizione, ma voleva qualcosa di più, per esempio passare alla storia, e così, probabilmente spinto da qualche consulente, decise di lanciare la grande IBM nella nuova sfida, il computer che passava da strumento professionale a bene di largo consumo.

Bisognava anzitutto bruciare sul tempo i piccoli ma dinamici concorrenti, e proporre sul mercato un prodotto analogo, per prestazioni e prezzo, ma tranquillizzante e affidabile grazie al marchio IBM. Il processore c'era già, la IBM scelse un modello della Intel (l'8080) invece dell’allora leader di mercato, lo Z80 della Zilog, l’azienda dell’italiano Faggin, e anche per il resto dell'hardware non c'era problema. Il problema era il sistema operativo, il software che governa il funzionamento della macchina. Invece di svilupparlo nei potenti laboratori della multinazionale, Opel decise di prenderlo già pronto. E in questo è stato "visionary".

La Microsoft era all'epoca una piccola società che si era lanciata nel nascente mondo dei PC. Come molti altri in quel mondo inventavano  ben poco, più che altro adattavano in scala più piccola prodotti professionali utilizzati sui mini-computer professionali. In particolare Microsoft aveva preso come base uno dei sistemi operativi della popolare serie PDP-11 della Digital (un computer tra i più usati in ambito militare e di ricerca, che anni dopo si sarebbe scoperto essere stato clonato perfettamente dai russi), l'RT-11, che era proprio il sistema operativo del PDT-01 ricordato prima. Era stato adattato da Microsoft per l'Intel 8080 e questa è stata la prima fortuna di Bill Gates, non aver puntato sul più brillante e più popolare Z80. In questo modo aveva meno concorrenti e la scelta di Microsoft divenne, se non obbligata per IBM, certo più mirata.

Naturalmente i soliti dietrologi e complottisti hanno per anni ipotizzato motivazioni recondite per la scelta proprio di quella piccola società di Seattle, miracolata così dalla IBM, ma io, da buon seguace di Monod, propendo per il caso, aiutato in questa occasione dalla propensione di Bill Gates per le scelte di retroguardia (che sarà costante anche negli anni a venire) e dalla analoga propensione alla prudenza della IBM.

Nasceva così il PC IBM, enorme successo degli anni '80, avanguardia della invasione futura, con all'interno il sistema operativo Microsoft MS-DOS. La IBM sorpassava la Digital sul suo terreno, andando oltre i mini computer, arrivando ai micro-computer (si chiamavano anche così) e usando con spregiudicatezza inusitata (anche per Digital) prodotti non suoi.

Era convinta di avere comunque il pieno controllo di tutto, ma avrebbe avuto qualche amara sorpresa, e presto.

(Caccia all'errore. Per esigenza di brevità e scorrevolezza in questa puntata e nelle successive sono presenti alcune semplificazioni. Tutti i pierini in ascolto possono segnalarle come commenti. E'  chiaro che non si vince nulla: siamo in Internet e tutto è gratis - Nelle immagini l'Apple IIe il Personal Computer IBM 5150)