CURRICULUM VITAE et STUDIORUM

 

dell’Ing. Elia PEROTTO

 

Nato a: Jesi (AN), il 10 Febbraio 1944

Nazionalità: italiana

Stato civile: coniugato

Residenza: Via delle Orchidee 11 - 56018 Tirrenia  (Pisa)

Studi universitari: Facoltà di Ingegneria dell'Università di Pisa

Laurea: Ingegneria Elettronica il 22/7/74

Voto di Laurea: 110/110

Impiego presente: Primo Ricercatore al CNUCE - Istituto del CNR

Primo impiego: 1/12/74

Esperienza: Trasmissione dati, reti di calcolatori, immagini.

Lingue: Inglese (molto bene), Francese (perfetto)

Indirizzo: CNUCE - Area di Ricerca di San Cataldo- via G.Moruzzi 1 - 56124 - Pisa

 

 

Ho frequentato il Liceo Scientifico "F. Enriques" a Livorno, che mi ha dato buone basi matematiche.  In quel periodo mi sono interessato alla radio al livello dei radioamatori, e questo ha influenzato la scelta dei miei studi universitari.

Nell'estate del 1967 sono andato alla Siemens Spa a Milano per uno stage che mi ha dato una approfondita conoscenza dei sistemi di commutazione telefonica.

La mia prima esperienza con i calcolatori è del 1970 con un corso di Fortran sull'IBM 7090 e l'IBM 1800 del CNUCE, a quel tempo centro di calcolo dell'Università di Pisa.

Dal Settembre 1971 ho svolto il servizio militare, in artiglieria con l'incarico di topografo, fino al Dicembre 1972.

Laureato nel 1974, entrato subito al CNR, dal 1976 ho avuto contatti con gli ambienti della ricerca francese (Grenoble - Saclay) ed europea (CERN - Ginevra).  Nel 1981/82 ho passato un anno come visiting scientist alla Stanford University (California) dove partecipo all’estensione della rete locale dello SLAC e acquisto una conoscenza profonda della lingua inglese.

Dal 1983 al 1985 sono al CERN a Ginevra per 2 anni come scientific associate, dove mi trovo a lavorare con innovatori come Robert Cailliau e Tim Berners-Lee, i creatori del World Wide Web.  In questo periodo oltre alla lingua inglese, posso perfezionare la conoscenza del francese.  Dopo un anno di intervallo passato a Pisa ritorno nel 1986 al CERN nel gruppo del prof. Antonino Zichichi per rimanervi fino al 1990.  In questo periodo faccio la conoscenza di molti ricercatori del CERN provenienti da tutta l'Europa.  A questo proposito cito i miei viaggi a Mosca per i rapporti con il gruppo diretto dal prof. Velikov dell'Accademia delle Scienze dell'U.R.S.S..

Il matrimonio con una ricercatrice universitaria nel 1987, che mi segue a Ginevra andando a lavorare alla Facoltà di Medicina di quella Università, mi porta ancora più a contatto con l'ambiente universitario, contatto che si concretizza nel 1993 con l'insegnamento a Siena per il corso di Laurea in Scienze della Comunicazione, uno dei primi in Italia, e poi a Pisa per il corso di Diploma in Ingegneria Elettronica, nella Facoltà dove mi sono laureato.

Sono stato iscritto all’Ordine degli Ingegneri di Pisa dal 1975 al 1999.

 

___________________________________


CURRICULUM della attività Scientifica e Tecnologica

dell'Ing. Elia Perotto

 

1) - Studi universitari

Università di Pisa, Facoltà di Ingegneria dal 1963 al 1971.  Corsi di FORTRAN-IV e APL presso il CNUCE (1970).  Servizio militare dal 29/9/71 al 18/12/72 a Pesaro (28º Rgt. Fanteria), Pisa (3º Rgt. Artiglieria Pesante Campale) con incarico di Topografo, distaccato al Gruppo Selettori del Distretto Militare di Pisa (Aprile-Dicembre 1972).  Tesi sperimentale sulle non-linearità dei dielettrici con il Prof. Ugo Tiberio (1973).  Uso del calcolatore IBM 1130 del Centro di Automatica "Enrico Piaggio".  Conversione dei programmi dal 1130 all'IBM 360/67 del CNUCE (CP/67).  Laurea in Ingegneria Elettronica il 22 Luglio 1974 con 110.  Titolo della Tesi sperimentale: Studio delle non-linearità nei dielettrici nel campo delle microonde.

2) - 1974-77: CNUCE (Pisa)

Programmi sotto CICS/DOS/E per il Mercato Ittico del Comune di Livorno in Assembler/370 e Cobol (1/12/74-31/5/75).  Concorso per entrare al CNR (Maggio 1975).  Assunzione al CNUCE come Aspirante Ricercatore dall'1/6/75.  Mantenimento e modifiche del sottosistema RSCS/VM, dei terminali, modem, delle stazioni di lavoro RJE.  Interazione con la Società telefonica per l'istallazione ed il mantenimento delle linee telefoniche commutate e punto-punto.  Partecipazione ai congressi SEAS (SHARE European ASsociation: ass. degli utenti IBM per l'Europa).  Partecipazione al Progetto 3750 (Centrale telefonica controllata da un elaboratore).

3) - 1977: Il Progetto "SIRIO"

Istallazione e collaudo della linea Cnuce-Telespazio (Roma) e Roma-Fucino.  Scrittura di un line-driver sincrono (BSC) sotto VM/RSCS per ricevere i dati telemetrici del satellite SIRIO in tempo reale.

4) - 1978-80: Il Progetto "STELLA" - CERN (Ginevra)

Al CERN di Ginevra per lunghi periodi (1-2 mesi).  Progetto, costruzione e test del CIM (Computer Interface Module) per il collegamento dell'antenna rice-trasmittente a 11-14 GHz al PDP11, conversione del cross-assembler per il Motorola M6800 dal CDC 7600 (60 bit) al PDP11 (16 bit).  Scrittura dei line-driver per l'interfaccia DMA DR11-B e per l'interfaccia parallela DR11-K sotto RSX11/M.  Simulatore dell'interfaccia parallela del General Electric Co. GEC 4080 su un mini-computer HP 2100.  Istallazione del compilatore BCPL sotto RSX11/M.

5) - 1979-80: Prove "STELLA/SIRIO" alla Telespazio

Sede di lavoro: Stazione Telespazio del Lario - Colico (Como) e Stazione Telespazio del Fucino - Avezzano (L'Aquila).  Prove di trasmissione e ricezione a 2Mbit/sec tra le stazioni del Fucino e del Lario tramite il satellite Sirio e l'Intelsat IV.  Modifica alla connessione CIM/Modem con l'inversione di fase prima del CODEC (Codificatore/Decodificatore differenziale) per evitare perdite di sincronismo su lunghe sequenze di zeri nel canale HDLC.

6) - 1980-81: Estensione di CERNET su STELLA

Sede di lavoro: CNUCE (Pisa) e INFN (S. Piero).  Scrittura di un line-driver per l'interfaccia sincrona DEC DUP11 in HDLC.  Conversione per RSX11M del Transport Manager di CERNET.

7) - 1981-82: Stanford Linear Accelerator Center (USA)

Sede di lavoro: SLAC (Stanford - Cal.).  Creazione del Network Operating System per il collegamento dei VAX all'IBM 3081 a 2.5 Megabit/sec.

8) - 1982-83: Progetto STELLA II con INTERNET

Istallazione del Cambridge Ring a 10 Mb/s tra il PDP11/70 e l'IBM 3033 con l'interfaccia di canale LSI/11.  Interconnessione in rete via satellite ECS del CERN, CNUCE, Rutherford Labs, Frascati, Graz e Dublino.

9) - 1983-85: Scientific Associate al CERN

Sede di lavoro: CERN (Ginevra) Modifica della connessione CERNET tra il CDC 7600 e l'IBM 3081 con interfaccia diretta a JES2 con Windows.  Conversione da MVS a VM/SP del CERNET Transport Manager con NOS (Network Operating System) e VMCF.

10) - 1985-86: CNUCE (Pisa)

Trasferimento da VM/SP a PC di immagini da satellite.  Interfaccia per terminale grafico 3279 con protocollo Versatec/GDDM.  Istallazione del TCP/IP su VM con DACU per il collegamento tra il gateway Arpanet e la stazione del Fucino.

11) - 1986-90: Esperimento LAA al CERN

Sede di lavoro: CERN (Ginevra).  Connessione del McIntosh/VMEbus a CERNET.  Collegamenti alternativi via CAMAC o Ethernet.  Conversione da CDC/SCOPE a VM/CMS di programmi e routine di libreria.  Progetto del Centro di Calcolo per il World-Lab a Erice (VAX 8350).  Istallazione del VAX 8250 al CERN per LAA.  Gestione delle risorse di calcolo del gruppo LAA sul mainframe IBM.

12) - 1990-93: Gruppo Sistemi Distribuiti e Reti al CNUCE

Collegamento TCP/IP tra VM e il database ASTRA (Pascal).  Interfaccia TCP/IP tra VM (client) e DecStation (server) per un Database SQL.  Connessione di una workstation grafica al VM via TCP/IP e Ethernet.

13) - 1993-95: Università di Siena

Titolare del corso di Sistemi e Tecnologie della Comunicazione del corso di Laurea in Scienze della Comunicazione per gli A.A. 1993/94 e 1994/95.  Preparazione del libro di testo con l'ing. Alessandro Andreadis.

14) - 1995-2001: Università di Pisa

Titolare del corso di Calcolatori Elettronici II del corso di Diploma in Ingegneria Elettronica della Facoltà di Ingegneria per gli A.A. 1995/96 e 1996/97.

15) - 1997: CNUCE - Gruppo Sistemi Informativi Territoriali

Sviluppo di programmi per il trattamento delle immagini satellitari e foto aeree, sovrapposizione delle immagini raster ai dati in forma vettoriale della cartografia e integrazione nei database (Oracle/ArcInfo).  Conversione automatica delle immagini bitmap in formato GIF per il WWW.

16) - 1999-2001: Progetto Beni Culturali

Sviluppo di un programma che rappresenta graficamente i dati di Carta 2000, il formato vettoriale usato dalle amministrazioni pubbliche (comuni, provincie e regioni) per le planimetrie urbane

 

Lista delle pubblicazioni:

Pubblicazioni internazionali: 13 articoli (Alta Frequenza, CERN EUR, CERN CNL, Nucl. Instr. and Meth., Comp. Phys. Comm., Vertex Detectors, Nucl. Phys. B, SHARE Proc., Nuovo Cimento);

Partecipazioni a Congressi: 17 presentazioni (4 SEAS: Dublino, Berlino, Amsterdam, Parigi; DECUS, AICA, ICSS Hawaii, INFN Workshop, CHEP Asilomar, SICON Singapore).

Pubblicazioni interne: 32 articoli (18 CNUCE, 11 CERN, 1 SLAC, 1 CNR, 1 Proc.);

1 Tesi di Laurea come Relatore.

 

Dal 1991 ho l'attestato di volo da diporto sportivo con aeromobili a motore.  Sono anche appassionato di vela.  Sono iscritto al club Moto d'Epoca di Pisa.

 


CURRICULUM  VITAE

(dettagliato)

dell'Ing. Elia Perotto

 

 

1) - Studi universitari

La mia prima esperienza con i calcolatori è del 1970 con un corso di Fortran sull'IBM 7090 e l'IBM 1800 del CNUCE, a quel tempo centro di calcolo dell'Università di Pisa.

Il primo contatto con i calcolatori fu seguito nel 1973 da un corso di APL/DOS sull'IBM 360/67 del CNUCE, e dalla programmazione in Fortran su un IBM 1130 dell'Istituto di Automatica della Facoltà di Ingegneria per simulare il comportamento di una rete di linee coassiali e di guide d'onda, progettato per rivelare le non-linearità nei dielettrici stimolati da forti campi elettrici alle frequenze delle microonde per la mia tesi di Laurea.  Per completare questo lavoro si rese necessario il passaggio sull'IBM 360/67 del CNUCE (Centro Nazionale Universitario di Calcolo Elettronico) che al tempo era il centro di calcolo dell'Università di Pisa, dove mi trovai a risolvere tutti i problemi della conversione dei miei programmi per un  nuovo sistema operativo.

Il 22 Luglio del 1974 mi sono laureato con il massimo dei voti, 110 su 110, in Ingegneria Elettronica alla Facoltà di Ingegneria della Università di Pisa con il Prof. G. Calamia (relatore, poi direttore dell'Agenzia Spaziale Italiana) ed il Prof. Ugo Tiberio (Direttore dell'Istituto di Elettronica e Telecomunicazioni, scopritore della equazione del radar, e artefice del radar italiano "Grifone" durante la guerra).

 

2) - 1974-77: CNUCE (Pisa)

Dopo la Laurea ho studiato l'Assembler sul sistema IBM 360/67 e sul nuovo IBM 370/158 con OS/VS1 che il CNUCE aveva da poco istallato.  L'1/12/74 ho cominciato a lavorare per il CNUCE come programmatore esterno.  Il primo incarico fu il progetto e la realizzazione di una serie di programmi (in Assembler e Cobol) per automatizzare il Mercato Ittico di Livorno.  Questi programmi consistevano in circa 2000 statement, e sono stati una prima esperienza di teleprocessing, perché giravano su un IBM 370/135 (in seguito un /148) con CICS/DOS-Entry in connessione con quindici terminali IBM 2740 su linea dedicata fornita di Line Adapter (modem).

Dall'1/6/75 sono entrato al CNUCE come Aspirante Ricercatore con la responsabilità del software per le stazioni RJE (Remote Job Entry) connesse al nuovo sistema IBM 370/168 istallato al CNUCE, funzionante con il VM/370 (Virtual Machine Operating System).  Il sottosistema che controlla le stazioni RJE nel VM/370 è RSCS (Remote Spooling Control Subsystem), che gira su una macchina virtuale dedicata, ed è costituito da un insieme di moduli (linedriver) di 5000 linee di codice assembler ognuno, molto simili ai corrispondenti moduli di HASP, che trasferiscono file tra lo Spool System ed i terminali NPT (Non Programmable Terminals: tipo IBM 2780, 3780 o 3741) oppure i terminali SML (Spool Multi-Leaving: cioè sistemi programmabili come l'IBM 360/20, 5950, ed ogni altro sistema con un protocollo RTAM tipo ASP, HASP, JES or RES).

 

Per quanto riguarda il software le mie responsabilità consistevano in:

· generazione del sottosistema RSCS;

· specifica del tipo e delle caratteristiche di tutti i terminali connessi;

· assemblaggio e link-edit dei vari moduli;

· prove di nuovi collegamenti;

· formazione degli operatori con corsi e seminari;

· correzione dei malfunzionamenti per mezzo di modifiche.

Modifiche che nel 1977 erano giunte al numero di 130, molte delle quali sono state accettate ufficialmente dall'IBM e distribuite in tutto il mondo con le nuove versioni di RSCS.  Alcune delle modifiche erano in realtà veri e propri miglioramenti come il supporto alle stazioni intelligenti SML senza console, oppure estensioni come la compatibilità con le stampanti asincrone a basso costo.  Alcuni di questi miglioramenti hanno influenzato la performance di tutto il sistema VM/370, come i line-driver interamente rientranti che hanno ridotto di circa l'80% il carico di paginazione della macchina virtuale RSCS, che raggiungeva quasi il 10% della paginazione totale del sistema.

Era anche mia responsabilità di provare gli emulatori software di terminali IBM (con protocollo NPT o SML) funzionanti su vari tipi di minicomputer, come l'HP 2100/21MX, i PDP 11, NOVA3, ECLIPSE o DATA100, e di accettarli ufficialmente come terminali RJE supportati dal CNUCE, quello che oggi si chiamerebbe certificazione.

Un altro incarico riguardante il software era le generazione ed il mantenimento dell'EP (IBM 2703 Emulator Program) per le due 3705 Transmission Control Unit (con circa 180 linee asincrone e 40 sincrone, di velocità comprese tra 110 e 9600 bit/sec), e l'adattamento all'EP di estensioni come la DSA (Dynamic Subchannel Allocation) sviluppata in America dalla COMM-PRO.  Alcune di queste linee erano parte della rete RPCNET, una rete sviluppata congiuntamente da Luciano Lenzini al CNUCE e dall'IBM, che connetteva Pisa a Venezia, Milano, Torino, Padova e Bari usando uno speciale protocollo BSC.  Alle linee a bassa velocità, si deve aggiungere quella ad alta velocità (40 KBit/sec) che interconnetteva il 370/158 ed il /168 via due TCU 2701.

Ho partecipato al Progetto 3750 che collegava il mainframe IBM 370/168 al sistema di commutazione telefonica intelligente IBM 3750 con una linea sincrona a 4800 Bit/sec per la ricezione dei dati di addebito delle telefonate, di dati statistici sul traffico, di dati dell'orologio elettronico per il conto delle ore di lavoro del personale, e per la trasmissione dei comandi, tra i quali la connessione/disconnessione di "trunk lines" e la chiamata telefonica automatica sia su linee foniche che per trasmissione dati.  Poco prima della istallazione della 3750 ho visitato i laboratori di ricerca IBM di La Gaude, presso Nizza, dove questo sistema è stato progettato.  Ho collegato il sistema di controllo TPLH (Tele Processing Lines Handling) della 3750 all'IBM 370/168 con una linea pilotata da un RSCS modificato per lo scambio di dati e comandi, come la chiamata e la connessione dei terminali remoti su linea telefonica commutata.

 

Sul fronte dell'hardware sono stato l'interlocutore tecnico tra il CNUCE e le PTT per istallare nuove linee per trasmissione dati, modem e concentratori, ed ero responsabile della problem determination e della manutenzione dei collegamenti esistenti.  Per verificare la corretta operazione delle linee sincrone ho usato una cuffia stereofonica amplificata, con i due canali destro e sinistro collegati ai pin 2 e 3 della interfaccia V24 (dati trasmessi e ricevuti) in modo da avere una sensazione immediata dello stato della linea.  Ho anche progettato uno speciale connettore a "T" per sorvegliare una linea per mezzo di altre due connesse ad uno speciale programma di ascolto, che produceva un log-file su disco.

 

3) - 1977: Il Progetto "SIRIO"

Nell'estate del 1977 il gruppo Dinamica del Volo del CNUCE e la TELESPAZIO in partecipazione al Progetto “SIRIO” ebbero la responsabilità della sorveglianza dei parametri dell'orbita del satellite geostazionario e del calcolo delle manovre correttive per mantenerlo al suo punto di stazione.

Il problema principale da risolvere per il successo del collegamento era l'assenza di un protocollo dotato di acknowledgement, e di possibilità di ritrasmissione.  Infatti la mancanza di sincronizzazione e di controllo del flusso, dovuta alla ridotta potenza del computer sul satellite, rendeva il processo essenzialmente real-time.

Per questo ho scritto un modulo di controllo per linea sincrona sotto RSCS con un protocollo per la sola ricezione dei dati di telemetria dal satellite, che venivano inviati in un unico blocco ogni pochi secondi, dati che erano ricevuti dalla stazione terrestre del Fucino e inviati prima a Roma (sede di Telespazio), e poi su un'altra linea verso Pisa.

Le due tratte erano unite con un collegamento back-to-back tra i due modem attestati a Roma.  Il collegamento back-to-back dei modem non funzionò subito, a causa del fatto che i tecnici della Telespazio non avevano capito che il modem che trasmetteva da Roma a Pisa aveva (accidentalmente) un clock indipendente da quello del modem che riceveva dal Fucino, e che il flusso di dati uscente dal modem ricevente veniva ricampionato dal modem trasmittente sulla seconda tratta, e che la deriva tra i due determinava la perdita o la ripetizione di un bit in modo periodico.

Questo accadeva poche ore prima del lancio del satellite previsto per la notte del 17 Luglio.  In collegamento telefonico mi fu descritto come appariva all’oscilloscopio ogni segnale dell’interfaccia RS-232C tra i due modem, tra i quali riconobbi due segnali sovrapposti.  Il mio suggerimento di togliere il collegamento tra i due segnali di clock-out (che erano due uscite collegate tra loro) e di collegare invece il clock-in del trasmittente al clock-out del ricevente risolse il problema.  In quell’occasione il Dr. Paolo Bronzoni, allora vicedirettore del CNUCE, riconobbe che avevo salvato il progetto stesso per il CNUCE e per la Telespazio.  L’inaffidabilità dei dati telemetrici ricevuti avrebbe lasciato il satellite praticamente alla deriva.  In una società privata in quell’occasione avrei avuto un avanzamento di carriera, non tanto per la complessità del mio intervento, ma per il fatto di essere stato l’uomo giusto al momento ed al posto giusto.

 

4) - 1978-80: Il Progetto "STELLA" - CERN (Ginevra)

Nel Novembre 1977 sono entrato a far parte del Progetto STELLA (Satellite Transmission Experiment Linking LAboratories) sponsorizzato dal CERN (Centre Européen pour la Récherche Nucleaire) con l'aiuto dell'ESA (European Space Agency), e la partecipazione di alcuni Centri di Ricerca per la Fisica Nucleare come Desy (Germania), Rutherford (Regno Unito), CNUCE, Saclay (Francia) e delle Università di Dublino (Irlanda) e Graz (Austria) per collegare quei centri al CERN attraverso l'Orbital Test Satellite (OTS) a 2 Mbit/sec per il trasferimento di dati da nastro a nastro.

Il Progetto STELLA era diretto da Merwyn G. HINE al CERN, e da Luciano LENZINI al CNUCE.  Nello stesso periodo il Dr. J. Mendez del Laboratorio IBM di La Gaude (presso Nizza) invitò il Dr. Lenzini e me a visitarlo per uno scambio di esperienze sull'esperimento di trasmissione dati in corso tra l'IBM e le PTT francesi sull'uso del satellite franco-tedesco Synphony, che permetteva l'uso di un canale T1 a 1.54 Mbit/sec.

Le stazioni terrestri del Progetto STELLA consistevano in:

·     un LDC (Link Driving Computer) che era un GEC 4080 a Rutherford Labs ed al CERN, un PDP-11/70 al CNUCE, un AEG a Desy;

·     un CIM (Computer Interface Module);

·     un CoDec Viterbi con rapporto 1/2 (encoder/decoder ad autocorrezione degli errori) della Linkabit;

·     un modem BPSK (Binary Phase Shift Keying) a 1024 Kbit/sec prodotto dalla Marconi in Inghilterra per Rutherford e il CERN, mentre quello italiano era prodotto dalla GTE;

·     un TWT PA (Trawelling Wave Tube Power Amplifier) per la trasmissione sulla banda di 11 Ghz;

·     un ricevitore a varactor per la banda dei 14 GHz, ed una antenna parabolica di 3 metri di diametro.

Con 100 Watt in trasmissione e l'equipaggiamento suddetto il rapporto S/D previsto era di 11.8 dB.

Il primo CIM è stato progettato da Knut Sören Olofsson al CERN per connettere il modem BPSK ad alta velocità della Marconi al minicomputer GEC 4080 che era stato scelto per controllare le stazioni terrestri a Rutherford e al CERN.  Il CIM consiste in un microprocessore Motorola MC6801, due SMC COM5025 HDLC USRT (Universal Sinchronous Receiver/Transmitter), e tre timer programmabili Motorola MC6840, che realizzano un multiplexer a divisione di tempo, che calcola la finestra temporale di trasmissione dal tempo di ricezione dell'impulso di riferimento della stazione master e dal tempo di ritardo satellite/terra (125 ms) del master burst.  Il software del CIM era stato messo a punto nella versione CERN/Rutherford da Ben M. Segal (CERN/DD) che descrive la sua partecipazione al progetto in un articolo su Internet.

La mia parte nel Progetto era di modificare il CIM, sia nell'hardware (con la partecipazione di Antonio Ranieri dell'INFN di Bari) che nel software, per collegarlo al DEC PDP-11/70 usato a Pisa come LDC che utilizzava le interfacce DR-11/B (DMA) e DR-11/K (parallela), e di scrivere i Device Driver per il sistema operativo RSX-11/M del PDP-11/70.  Ho trasferito le modifiche al CIM sui file di cablaggio usati dallo speciale programma del CDC 7600 del CERN che produceva il nastro perforato che pilotava la macchina wrappatrice semiautomatica che montava le schede (usando la tecnica del wire-wrap tipica dei prototipi).  Ho poi scritto un programma in assembler sull'HP 2100 (usando un cross-assembler su CDC 7600 che perforava schede binarie) per simulare il comportamento della interfaccia hardware del G.E.C. 4080 che non era disponibile al CERN in quel momento (Aprile 1979), e che veniva usato per provare il prototipo del CIM destinato ai Rutherford Labs.

Per facilitare il lavoro di modifica del software originale del CIM, scritto da Ben Segal, ho riadattato per il PDP-11 la vecchia versione in fortran/CDC del cross-assembler del Motorola MC6800, convertendola dai 60 bit del CDC ai 16 bit del PDP.

Nello stesso periodo ho istallato il compilatore BCPL (linguaggio che ha dato origine al "C") che al CERN era curato da Mary K. Downie, sul PDP-11 per la stesura della parte ad alto livello del sistema STELLA, la versione per RSX-11M del software dell'LDC, che fu fatta in collaborazione con Nedo Celandroni ed Erina Ferro.  Mi sono occupato anche della conversione per il PDP-11 del cross-assembler per il Motorola M6800 scritto in BCPL che al CERN girava sul NORD-10 con il sistema operativo SINTRAN III.

Nel Gennaio del 1979 sono stato al Laboratorio di Fisica delle Alte Energie di Saclay presso Parigi, dove mi era stato offerto un contratto della C.E.A. (Commission pour l'Energie Atomique) per lavorare alla interconnessione dei vari sistemi MVS del loro centro di calcolo.  La cosa non ebbe seguito, perché il salario non era sufficiente per quel periodo e per quel luogo (6800 FF al mese per Parigi).

 

5) - 1979-80: Prove "STELLA/SIRIO" (Lario e Fucino)

Mentre i CIM per il CERN, Rutherford Labs e CNUCE erano pronti nell'estate del 1979 (il nostro fu finito il 20 giugno), le antenne e la parte alta frequenza erano in ritardo sul programma.  Perciò il capo del progetto Dr. Lenzini chiese alla Telespazio, che stava costruendo l'antenna rice-trasmittente, di poter usare le istallazioni del Lario, sul lago di Como (Colico), e della conca del Fucino, (Avezzano) per provare il sistema facendo uso delle antenne da 17 metri in collegamento col satellite italiano Sirio.

Per l'Ottobre 1979 il nostro gruppo di 4 persone (con l'aggiunta di Antonio Blasco Bonito) iniziò il montaggio delle due stazioni usando un PDP-11/45 al Lario e un PDP-11/34 al Fucino, un secondo CIM (quello costruito per la Telespazio) fu disponibile il 14 Novembre, ed un terzo CIM (quello di Graz) l'8 Febbraio 1980.  Le prime prove misero in luce subito un difetto nella ricostruzione del clock nel modem: 50-100 bit senza transizioni di fase (zeri) determinavano la perdita del sincronismo.  Questa condizione si poteva verificare più facilmente nell'operazione senza Codec, il quale, inserendo i bit di ridondanza per l’auto-correzione degli errori, rendeva meno probabile una lunga sequenza di zeri.

Per risolvere questo problema ho introdotto una inversione di fase nel segnale subito prima del codificatore differenziale, in modo che con il protocollo HDLC (che inserisce uno 0 dopo 5 1 consecutivi) una transizione di fase (zero) era assicurata almeno ogni 6 bit.  Una analoga inversione di fase doveva essere inserita dopo il decodificatore differenziale nella parte ricevente.  La mia idea è stata accettata come parte dello standard "Stella", estesa a tutte le altre stazioni, ed in seguito trasferita al progetto "Universe".  Anche in questa occasione, come per il progetto Sirio, il mio contributo è stato elementare, si è trattato di scambiare due fili, la considerazione fondamentale è che la modifica era essenziale per la prosecuzione del progetto.

La prima sincronizzazione sul satellite Sirio fu raggiunta il 13 Febbraio 1980, ed il primo nastro fu trasferito il 18 Aprile.  Con 8-10 Watt abbiamo raggiunto un rapporto Segnale/Disturbo di più di 30 dB su una banda di 2 MHz con antenne da 17 metri, condizioni un po’ più favorevoli rispetto ai 100 W e antenne di 3 m previste dal progetto (9*174/100*34=~93=+19 dB).

Quando la nostra antenna da 3 m fu consegnata nell'estate del 1980 cominciammo le prove con Rutherford all'inizio, e con il CERN più tardi, e potemmo collaudare le differenti versioni del software sui vari LDC.  In questa fase del progetto ho lavorato a Pisa e al CERN, dove ho partecipato con Ben SEGAL nella messa a punto del software sull'LDC Nord-10.

 

6) - 1981: CERNET su STELLA II

Nella primavera del 1981 il progetto STELLA era pronto ad entrare nella fase operativa, in vista della rimessa in funzione dell'acceleratore SPS del CERN in Giugno.  Una estensione del progetto fu proposta ed approvata: STELLA II, una rete a commutazione di pacchetto via satellite.

Nei primi cinque mesi del 1981 mi sono dedicato principalmente alla connessione della rete "CERNET", che connetteva tutti i calcolatori del CERN, con il link via satellite, e con la linea sincrona a bassa velocità che esisteva già tra il CNUCE e l'INFN.  Dopo discussioni preliminari con Mike J. Gerard e Crispin Piney (CERN) ho potuto disegnare una interfaccia (software) tra il Transport Manager di Cernet (scritto in BCPL) e la interfaccia seriale sincrona DEC DUP-11.  Per questo ho dovuto riscrivere il linedriver della DUP-11 per RSX11-M, a causa del fatto che il driver della DEC usa il protocollo DDCMP, impossibile da utilizzare sull'IBM, quindi ho dovuto usare l'HDLC (uno standard CCITT) comune ad ambedue i sistemi.  Questo driver ha un completo scambio delle informazioni di stato del link che somiglia al protocollo tra IBM e MODCOMP, che usa una LCW (Link Control Word di 16 bit) per avvertire il corrispondente ogni volta che si verifica un evento che cambia lo stato del link (INIT, QIO, CANCEL).

Nell'Aprile 1981 il nuovo driver HDLC era pronto ed erano cominciate le prove tra il PDP-11/70 al CNUCE e il PDP-11/60 dell'INFN a San Piero, ad 8 Km da Pisa, usando la linea half-duplex (2 fili) sincrona a 2400 bit/sec.  Dopo le prove positive di questa piccola (2-nodi) rete Cernet, iniziai il lavoro sull'interconnessione CerNet-STELLA-CerNet che avrebbe avuto il nome profetico di InterNet.

La prima fase consisteva nell'uso del link via satellite Ginevra-Pisa come una linea CERNET dedicata tramite il PDP-11/70 al CNUCE ed il Nord-10 al CERN.  Per fare ciò doveva essere inserito uno strato di software tra il Cernet Transport Manager e i CIM Driver sulle due macchine.  In questo modo il collegamento via satellite diventava un prolungamento della rete Cernet verso due nuovi nodi, Pisa e San Piero, anche se lo stesso collegamento non poteva essere usato per la rete Stella allo stesso tempo.

La seconda fase, chiamata propriamente InterNet, era una sorta di "Supernetwork" capace di spedire pacchetti di altre reti, via satellite, verso altre reti omologhe (con lo stesso protocollo) in modo che i nodi Cernet di Pisa e San Piero erano connessi con tutti gli altri nodi Cernet a Ginevra, ed i Cambridge Ring al CNUCE, al CERN ed a Rutherford potevano essere tutti in comunicazione tra loro (non con CerNet), una tecnica che più tardi è emersa con il nome di "bridging", ed è ora in uso tra Ethernet comunicanti attraverso una rete ospite.  Questo non implica una connessione tra reti disomogenee, come Cernet e Cambridge Ring, che è una funzione specifica dei "gateway” o convertitori di protocollo.

 

7) - 1981-82: Stanford Linear Accelerator Center (USA)

Nel Maggio 1981 ho avuto dal CNR il congedo di un anno per andare negli Stati Uniti su invito di Roger Alexander Cottrell, capo del gruppo reti del centro di calcolo dello SLAC (Stanford Linear Accelerator Center) per andare a lavorare nel suo gruppo con un contratto di 2200 $ al mese, aumentato a 2500 nel Marzo 82.

SLAC è un laboratorio di ricerca per la fisica nucleare delle alte energie dipendente dalla Stanford University a Palo Alto, in California, finanziato dal Ministero dell'Energia USA.

La divisione SCS (SLAC Computing Services), sotto la direzione di Charles Dickens, aveva un IBM 360/191, due IBM 370/168 sotto SVS/ASP ed un 3081 sotto VM/SP, con 5, 6 e 16 Mbyte di memoria centrale ed un totale di 20 Mips di potenza di calcolo.  Questa concentrazione di macchine era già connessa con alcuni degli otto DEC VAX-11/780 collocati nelle aree sperimentali attorno all'anello del PEP (Positron-Electron Project) al termine del grande acceleratore lineare, la cui costruzione mise in opera il fabbricato in cemento in un solo pezzo più lungo del mondo: un miglio (personalmente dubito che sia ancora in un solo pezzo perché è a cavallo della faglia di San Andreas).  I VAX sono collegati ai rivelatori ed ai contatori di particelle delle aree sperimentali, che producono grandissime quantità di dati, che possono riempire i dischi di un VAX in un solo giorno.  Da ciò la necessità di una rete efficiente che collegasse tutti i VAX agli elaboratori centrali.  Il collegamento è stato realizzato tramite quattro SBCU (Sensor Based Control Unit) sulle macchine IBM, collegate via cavo coassiale con LLA (Long Line Adapter) dalla parte dei VAX.  Ogni SBCU può supportare fino a 64 cavi a 2.5 Mbit/sec, usando un protocollo di polling/selecting.

Il software disponibile era minimo: alcuni programmi di test ed un solo programma di trasferimento file da VAX a IBM.  Era stato deciso di sviluppare il software per sfruttare le SBCU al massimo delle loro possibilità.  Nel periodo Agosto-Dicembre 1981 scrissi il NOS (Network Operating System), un sottosistema operativo multitasking che funziona insieme al CMS (di cui utilizza i servizi, come l'accesso ai dischi, alla console, ecc.) in una macchina virtuale dedicata, essenzialmente simile a RSCS, da cui deriva.  Questo sottosistema ibrido controlla le SBCU e permette a qualunque macchina virtuale di aprire un link con qualunque LLA (VAX) usando il sistema di comunicazione VMCF tra la macchina dell’utente e la macchina NOS multitasking dedicata, che permette il mantenimento di vari link aperti contemporaneamente per ogni SBCU.  C’era anche un canale di comunicazione attraverso lo spool per il trasferimento di tipo batch da e per i VAX, usando il tag dei file nello stesso modo di RSCS.

Il Network Operating System non è legato all'hardware per il quale è nato (le SBCU), ma, essendo completamente modulare, si può adattare a qualunque situazione aggiungendo i moduli driver adatti al tipo di control unit o linea di comunicazione, permettendo la massima flessibilità, ed anche la massima complessità di configurazione della rete.

La vita operativa di questa rete fu stimata attorno ai due-tre anni, ed in vista della sua sostituzione, una ricerca fu condotta da me e da Roger Cottrell, per raccogliere informazioni sia hardware che software, sullo stato dell'arte delle Local Area Network (LAN) disponibili o annunciate al tempo, per farsi un quadro preciso di questo campo molto specialistico.  Alcuni dei prodotti studiati erano:

 

·     Ethernet: 10 Mbit/sec supportata da DEC, Intel, Xerox, la rete in banda base ora molto diffusa, a quel tempo solo una versione prototipo a 3 Mbit/sec era in funzione nel campus della Stanford University;

·     Cambridge Ring: 10 Mbit/sec slotted ring (anello a finestre di tempo), già funzionante ai Rutherford Labs. (in seguito istallato anche al CERN e al CNUCE);

·     Sytek: una rete broadband (a larga banda: 300 MHz) basata sulla tecnologia della TV via cavo, un prototipo era in funzione a SLAC per la connessione terminale/host, anche la Brown University (Providence, R.I.) la usava;

·     Computrol: una rete HDLC su cavo coassiale disegnata per i sistemi di sicurezza antincendio, e controllo di accesso per grattacieli e industrie, 1-2 Mbit/sec, poco costosa, ma senza software;

·     Modway: della GOULD Modicon Division.  LAN, più adatta per minicomputer;

 

La selezione ridusse a due le reti candidate al rimpiazzo delle SBCU/LLA nella rete IBM-VAX allo Stanford Linear Accelerator Center: Ethernet e Sytek, con una certa preferenza per la seconda che permetteva la trasmissione di segnali video sullo stesso cavo per presentare informazioni sugli acceleratori e sulla rete stessa.

 

8) - 1982-83: Progetto STELLA II con InterNet

Nel Giugno 1982 sono tornato al CNUCE, dove ho istallato il Cambridge Ring per connettere tra loro il PDP-11/70 del Progetto STELLA II, l'IBM 3033, ed il 4331 del Centro Scientifico IBM.  Mi sono anche interessato del collegamento via satellite con i Cambridge Ring del CERN e di Rutherford, e dello studio dei gateway verso STELLA II e CERNET.

Sono andato nel Luglio 1982 ai Rutherford-Appleton Labs (RAL - Oxford) per studiare la loro istallazione del Cambridge Ring ed il software disponibile.  L'interfaccia con l'IBM 3081 era realizzata con un microcomputer DEC LSI-11, con una interfaccia di canale verso l'IBM e l'interfaccia Q-Bus della Logica Ltd. verso il Ring, con un programma di controllo scritto da Graham ADAMS di Rutherford.  Il collegamento al PDP-11 era una scheda Universal Micro Computer (UMC) con processore Z80 della Associated Computer Consultants (ACC), con una interfaccia DMA verso l'Unibus del PDP-11, e due Ring Stations verso il Cambridge Ring.  Ho curato l'istallazione e le prove del software per la scheda UMC/Z80 e del driver per il PDP-11, che sono prodotti della Logica VTS.

Nel Settembre 1982 sono stato all'Università di Cambridge per incontrare J.J. Gibbons prima che partisse per lo Xerox Parc (Palo Alto, Cal.), per avere il suo driver per interfaccia parallela PDP/Cambridge Ring ed il package software di rete ad alto livello da lui scritti per RSX-11/M.

Istallata l'interfaccia UMC nell'Ottobre 1982 nel PDP-11/70, mi sono occupato della stesura dei cavi del Cambridge Ring al CNUCE, e della connessione della interfaccia di canale LSI/11 (Auscom) all'IBM.  Nel Luglio 1983 Graham Adams e David Rigby di Rutherford sono venuti a Pisa per istallare il software del Cambridge Ring nell'LSI/11 e nell'IBM 3033.  Il software per lo LSI/11 era pre-assemblato su una cartuccia magnetica, e poteva essere modificato in memoria (in ottale), e salvato di nuovo nella cartuccia, cosa che limitava i miei interventi all modifica degli indirizzi di I/O e poche altre opzioni.  Il software per l'IBM era scritto in BCPL e consisteva nel "CORK" (CORoutine Kernel) un sistema operativo multitasking, il Ring Driver (che faceva uso del protocollo TCP/IP) ed un insieme di programmi per la gestione della console, del disco e dello spool.  Ho istallato il compilatore BCPL sotto VM/CMS per mantenere e modificare il CORK sul 3033.  Il Ring driver per il PDP11 fu riscritto da Blasco Bonito del CNUCE in sostituzione di quello della Logica VTS che non si adattava alle nostre necessità.

Nella prima metà del 1983 il software InterNet per STELLA II era pronto e le prove all'inizio.  Il concetto fondamentale di InterNet non era quello di un gateway tra reti differenti, ma più vicino ad un "ponte" fra reti omologhe lontane fra loro, i cui pacchetti vengono spediti in una "busta" esterna attraverso il satellite, in modo che le reti simili si trovino connesse insieme, fatti salvi i problemi di indirizzamento.  La funzione di gateway, se necessario, è implementata solo in un luogo, dove le due reti sono presenti ambedue (Cernet/Cambridge Ring al CERN), e chiunque può accedervi attraverso il satellite, per esempio il Cambridge Ring di Rutherford, può comunicare con Cernet a S.Piero attraverso il gateway CERN.

Il primo trasferimento di dati dal CERN al CNUCE via CerNet fu raggiunto nell'estate del 1983, ed un trasferimento multinodo Prevessin-CERN-CNUCE-San Piero fu possibile poco dopo.  Il primo trasferimento dati tra i Cambridge Ring del CERN e del CNUCE fu provato il 16 Settembre 1983.

La rete STELLA II al completo fu oggetto di una dimostrazione alla cerimonia di chiusura del progetto tenutasi il 20 Ottobre 1983 nelle località europee interessate: Pisa, Ginevra, Oxford.  Il Final Report è stato pubblicato al CERN per riassumere i 7 anni del progetto.

 

9) - 1983-85: Scientific Associate al CERN

L'anno prima il CERN aveva deciso di provare il VM/SP come sistema interattivo di front-end in vista della sostituzione di Wylbur/MVS, per seguire l'esempio dello SLAC e di Rutherford.  Conosciuto al CERN come sostenitore del VM, mi fu offerta da David LORD, leader del gruppo Software dei Sistemi alla DD division, la posizione di Scientific Associate al CERN.  Ho accettato, iniziando nell'Ottobre 1983 con stipendio netto di 6470 FS, portato a 7098 FS al mese il secondo anno.

Il primo e più urgente problema da risolvere era CHIMP (Cernet High speed Inter Mainframe Package) un programma in Pascal (4100 statement) scritto da Geerd D. Hoffmann per trasferire file dallo spool del JES al CDC 7600 per l'esecuzione in batch, o per la stampa su stazioni remote sparse nel CERN con un traffico di 2500 file e 100 MByte/giorno.

Questo programma aveva la funzione di connettere i due File Manager sul CDC e l'IBM attraverso i rispettivi Cernet Transport Manager, la cui operazione si disperdeva in una catena di started task in MVS che dovevano ricevere il controllo in sequenza per ogni blocco di dati per processare un file di spool, con il risultato di una velocità molto bassa (5 Kbyte/sec), molto al di sotto delle potenzialità di Cernet (80 Kbyte/sec).  Per risolvere il problema, ho riscritto una versione ridotta del File Manager in assembler per eseguire un sottoinsieme delle sue funzioni (limitate ai file di spool e con accesso in sola lettura), che comunicava con JES attraverso le "Windows" (ancora un nome profetico), un metodo di comunicazione memory-to-memory fra differenti address space che usava aree di memoria comune situate nella LPA (Link Pack Area) dell'MVS, sviluppato alla Rand Corporation (Santa Monica, Cal.).  Questo curò il difetto, dando a CHIMP la possibilità di sfruttare il link CerNet verso il CDC alla sua portata massima, e liberandolo dalla limitazione di poter operare solo dalla macchina IBM (delle due: batch e interattiva) con il File Manager in funzione, che quindi prima potevano operare solo a turno.

Nella primavera 1984 ho cominciato a lavorare all'adattamento del Cernet Transport Manager al VM/CMS.  Questo è il componente software che come started task dall’MVS controlla il front-end Modcomp (minicomputer) che interfaccia la rete CerNet, ed in particolare implementa il transport level nella terminologia OSI a sette livelli, stabilendo i link logici tra diversi processi su host differenti.  Consiste in 7500 righe di codice in assembler, e di una macro-libreria, diviso in due parti: il TM vero e proprio che opera come started task privilegiato (server side), e lo strato UIP (User Interface Package) che va incluso nel programma utente (client side).

Ho sostituito le "Windows", che mettevano in comunicazione le due parti suddette in ambiente MVS, con una emulazione delle stesse che si appoggia sulla interfaccia di comunicazione VMCF del Network Operating System che avevo scritto nel 1981 a SLAC.

Questo emulatore consta di 500 righe di assembler ed usa una sua Windows macro-library di 415 righe, che contiene un insieme compatibile di macro istruzioni (che accettano gli stessi parametri delle macro MVS Windows).  Per far funzionare il tutto sotto VM/CMS, si doveva anche emulare il Supervisore I/O di MVS (con le macro OPEN, CLOSE e EXCPVR) e questo fu fatto con modulo di 940 righe di assembler (principalmente adattando lo SBCU driver, con l'aggiunta delle I/O "appendages” riprese dalla versione MVS).  La sezione che intercetta i comandi di operatore dalla console del sistema, che fa uso del comando "F" (Modify) dell'MVS in ingresso, e della macro QEDIT in uscita, è stato rimpiazzato dal processo Console del NOS, per non interferire con l'esecuzione del TM stesso (che è un processo diverso).

Ho introdotto anche una pseudo-Console via VMCF, intercettando gli SMSG (Special Messages) per dare agli utenti la possibilità di sapere, con un semplice comando di CP, lo stato della rete e dei link attivi senza disturbare l'esecuzione dei programmi delle loro macchine virtuali.  Finite le modifiche alla fine di Novembre 1984, il Transport Manager iniziò le prove di velocità nel Gennaio 1985.  Dopo le prime prove fu chiaro che una versione multi-tasking era necessaria, permettendo di sovrapporre i trasferimenti VMCF (memoria-memoria) dei vari utenti, invece di copiare i buffer nelle code di sistema come nell'MVS.  Questo perché un utente poteva sospendere l'esecuzione della sua macchina virtuale, lasciando talvolta il Transport Manager in attesa di completare l'operazione Send VMCF corrente.  Questa nuova versione entrò in servizio nella primavera 1985.

Dal Gennaio al Maggio 1985 ho lavorato alla prima applicazione di questo Transport Manager CerNet, il Wylbur Bridge che è un programma (tipo Telnet su TCP/IP) che si trovava su quasi tutti i sistemi del CERN (VAX, PDP-11, MVS-TSO) che collega il terminale con Milten/Wylbur sui due sistemi MVS (Siemens 7890 e IBM 3081) attraverso CerNet.  Partendo dalla versione MVS-TSO scritta in PL1, ho riscritto la versione VM/CMS/NOS che supportava qualunque terminale CMS (full-screen o TTY).

Il Bridge è stato in servizio al Cern dal Giugno 85, fino all'abbandono dell'MVS, alla fine di Giugno del 1990.

Nel periodo Febbraio-Giugno 1985 ho portato a termine l'istallazione di Wisc-Net, la rete basata sul protocollo TCP/IP nella versione sviluppata alla Wisconsin University at Madison, che usa la DACU (Device Attachment Control Unit) per collegare il canale IBM all'Unibus Digital, dove una scheda Interlan NI1010A si connette a sua volta ad Ethernet.  Le prove furono fatte su di un IBM 4361 con l'aiuto di Dan Shuh della Wisconsin University, che si occupò della prima istallazione, che non fu completata perché era stato dichiarato dall'IBM che la DACU poteva lavorare col canale in selector mode mentre in realtà non poteva, per cui venivano perse le interruzioni.  Dopo aver risolto il problema ricollegando la DACU ad un canale multiplexor, procedetti con l'istallazione, e potemmo usare Telnet per collegarci ad altri nodi TCP/IP sulla rete locale Ethernet, e provare il trasferimento di dati con FTP.  Le prove di velocità tra IBM e VAX del Luglio 1985 dettero il risultato di 25 KByte/sec.

La mia collaborazione con la DD division del CERN non finisce col mio ritorno al CNUCE nel 1985, ma continua ancora, con pubblicazioni sulle Cern Computer Newsletters che appaiono anche sul web (ad es.: New Disk Manager Utility for VM del 1994).

 

10) - 1985-86: CNUCE (Pisa)

Dall'Ottobre'85 all'Aprile'86 sono tornato al CNUCE, dove ho scritto due programmi (uno sul VM/CMS, e l'altro su MS/DOS per PC) per trasferire in modo trasparente le immagini grafiche (256 Kb) dal mainframe IBM verso il PC equipaggiato con una scheda coassiale IRMA, che emula un terminale 3270 mod. 3).  L'insieme consiste in due programmi: il trasmettitore per il cavo coassiale 3270, che va sul mainframe, ed il ricevitore che va sul PC e trasferisce i dati dalla scheda IRMA allo schermo.  Il trasmettitore è scritto in assembler per gestire direttamente la Control Unit 3274, per fare in modo efficiente la traduzione inversa tra codice binario e codice 3270 keyscan (per neutralizzare la traduzione che viene eseguita nella C.U. 3274), e per eliminare dalla corrente di dati tutti i byte con significato speciale per la C.U. 3274 (comandi e ordini).  Il ricevitore è un programma Pascal che decodifica il flusso di dati dal formato trasparente a quello binario, lo manda sullo schermo o sul disco.  La massima velocità di trasferimento misurata era di 20 KBit/sec sull'IBM XT, e di 32 KBit/sec sull'Olivetti M24, il fattore limite essendo la CPU a 8 bit sull'XT e l'Hard Disk sull'M24.

 

11) - 1986-91: Esperimento LAA al CERN

Durante l'estate 1985 avevo chiesto al Prof. Antonino Zichichi se c'era possibilità di continuare il mio lavoro al Cern.  Fui da lui invitato a entrare nel suo gruppo per l'esperimento Lepton Asymmetry Analyser (LAA) che era sul punto di partire.

Ho cominciato il mio lavoro nel Maggio 1986, con una indennità di missione di 215 FS al giorno aggiunta allo stipendio base CNR (1.600.000 L.).  Infatti la mia sede ufficiale di lavoro era la Sezione INFN presso la Facoltà di Fisica dell’Università di Bologna, dove ero comandato dal CNR.

Il mio ruolo nell'esperimento era di:

·     convertire i grandi programmi fortran di analisi dei dati dal CDC 7600 (NOS/BE) all'IBM (VM/CMS), in vista della sostituzione del CDC, prevista per l'Ottobre '86, con il Cray X-MP, che avrebbe richiesto programmi sviluppati ex-novo in tempi lunghi;

·     convertire altri programmi per la simulazione dei detector di LAA da MVS/WYLBUR al VM/CMS;

·     insegnare ai fisici l'uso del VM/CMS ancora relativamente nuovo al CERN;

·     collegare in rete il McIntosh/VMEbus usato per collaudare le camere a filo;

·     collegare in rete il MicroVax II dell'esperimento Zeus (che si svolge a DESY, Amburgo);

·     amministrare le risorse di calcolo sui computer centrali del Cern (definire nuovi account, richiedere il tempo macchina e lo spazio disco).

Sono stato incaricato dal Prof. Zichichi di progettare il centro di calcolo per la sede di Erice del World-Lab che usa un DEC VAX 8350 (biprocessore), che sarà poi diretto da Jerry Pilarsky del World Lab.

Nel Gennaio 1987 ho fatto parte della delegazione del World Lab inviata a Mosca per discutere il Progetto Hermes con i Proff. Velikov, Aylamazyan, e Keilis-Borok, della Accademia delle Scienze, ed il Prof. Tretiakov dell'Istituto di Scienze Spaziali dell'URSS.  Questo progetto è una collaborazione nel campo della sismologia (electromagnetic sounding), delle previsioni meteorologiche a lungo termine, della educazione, della medicina, con l'uso di una rete via satellite per le comunicazioni.

Nel periodo Gennaio-Settembre 1989 ho avuto la responsabilità del progetto e della messa in funzione del centro di calcolo del Gruppo LAA, equipaggiato con un DEC VAX 8250 istallato nel Building 30 al CERN, che in seguito è stato trasformato in biprocessore (8350).

 

12) - 1991-93: Gruppo Sistemi Distribuiti e Reti al CNUCE

Il 21 Marzo del 1991 è terminato il mio Comando presso l'INFN di Bologna, ed ho ripreso servizio al CNUCE, dove mi sono occupato dello sviluppo di un server per il database ASTRA scritto in Pascal con interfaccia per la rete TCP/IP.  Questo lavoro è stato presentato al Congresso Internazionale sulle Reti SICON'91 a Singapore nel Settembre 1991.

Nel periodo Marzo-Settembre 1992 ho lavorato alla conversione del prodotto IBM SNMP (Simple Network Management Protocol), usato per controllare la rete TCP/IP, dal sistema operativo originario (GCS/Netview) al VM/CMS, scrivendo una interfaccia in assembler che simula l'ambiente multitasking del GCS (Group Control System, simile ad MVS).  Questo lavoro è stato oggetto di una tesi discussa al Corso di Laurea di Informatica della Facoltà di Scienze Matematiche, Fisiche e Naturali dell'Università di Pisa, della quale sono stato relatore.

In seguito, (Ottobre-Novembre '92) ho sviluppato l'interfaccia client per il database di accounting su VM/CMS via TCP/IP.  Nel periodo Marzo-Giugno del 1993 ho riscritto il programma FDISK (uno strumento per la gestione dei dischi virtuali che era in uso al VM/HPO del CERN) per adattarlo al nuovo VM/ESA del CNUCE.

 

13) - 1993/95: Università di Siena

Con l'inizio dell'anno accademico 1993/94, su indicazione del Direttore del CNUCE Ing. Stefano Trumpy, sono stato invitato dal Prof. Sebastiano Bagnara, presidente del corso di Laurea in Scienze della Comunicazione della Facoltà di Lettere dell'Università di Siena per l’insegnamento di Sistemi e Tecnologie della Comunicazione.

A questo corso fondamentale del secondo anno, al quale erano iscritti 250 allievi (numero chiuso del primo corso di Laurea), dei quali circa 180 hanno dato l'esame nelle 3 sessioni dell'anno accademico, ha collaborato in qualità di assistente il Dr. Fabio PATERNÒ del CNUCE.

Il corso mi è stato confermato per l'anno accademico 1994/95.  A questo corso collabora l'Ing. Alessandro ANDREADIS della Facoltà di Ingegneria dell'Università di Siena.  Gli studenti iscritti a questo secondo corso sono stati ridotti a 150 con numero chiuso, con circa 120 presenze alle lezioni.

 

14) - 1995-2001: Università di Pisa

Nell'estate 1995 Luciano Lenzini, nel frattempo passato come prof. ordinario alla Facoltà di Ingegneria di Pisa, mi mette in contatto con il Prof. Graziano Frosini che mi affida l'incarico di professore a contratto (art. 100) del corso di Calcolatori Elettronici II per il terzo anno del Corso di Diploma in Ingegneria Elettronica, di 60 ore, frequentato da circa 110 studenti, la metà circa provenienti dall'Accademia Navale di Livorno.  Per questo corso ho introdotto l’iscrizione all’appello di esami via Internet all'indirizzo http://docenti.ing.unipi.it/~d0008/, raggiungibile dalla pagina web dei docenti della Facoltà di Ingegneria.

 

15) - 1997: CNUCE - Gruppo Sistemi Informativi Territoriali

All'inizio del 1997 lascio il gruppo Reti di Calcolatori per il gruppo Sistemi Informativi Territoriali al quale già collaboravo da anni part/time.  Il lavoro del gruppo consiste nell'integrare in vari database immagini e dati provenienti dalle sorgenti più diverse: foto satellitari e aeree, cartografia in formato vettoriale o formato raster (bitmap), e nel renderle sovrapponibili fra di loro, con l’operazione di georeferenziazione.  Questo comporta varie conversioni a seconda del sistema di coordinate usato e una deformazione calcolata dell'immagine.

I dati sotto forma di file numerici provengono dall’I.G.M. (Istituto Geografico Militare) e rappresentano il DTM (Digital Terrain Model) detto anche DEM (Digital Elevation Model) di tutto il territorio italiano, con la definizione di un metro in quota e di 230 m circa in estensione (in una griglia con lati di 10" in longitudine e 7.5" in latitudine, 1/8 di miglio marino).  La quantità di dati è di circa 80 Mb suddivisi in 300 file, uno o più per foglio.  Per la rappresentazione grafica di questi dati ho messo a punto un programma che converte il file numerico in una immagine GIF con una palette di 256 colori simile a quella delle carte geografiche fisiche, vale a dire blu per il mare, verde per le pianure, giallo, arancio, marrone via via che aumenta la quota.

Le immagini propriamente dette invece provengono generalmente dai multispectral scanner satellitari o aerei che analizzano il terreno su varie bande (normalmente 7) dall'infrarosso all'ultravioletto, scegliendole in modo che si possano comporre immagini con falsi colori a seconda della combinazione di bande usate (infatti solo 3 bande corrispondono allo spettro visibile).  Queste immagini permettono lo studio della salinità e della temperatura del mare, evidenziano masse d'acqua separate che delineano le correnti, mentre sul terreno permettono lo studio della vegetazione e delle colture, l'idratazione del suolo, l'individuazione di costruzioni e della attività che vi si svolge (fumi industriali o da incendi boschivi, temperatura del suolo e dei fabbricati).  Nel caso delle immagini aeree, più che in quelle satellitari, alcune correzioni sono necessarie per la prospettiva e per l'incidenza della illuminazione solare.

Lo strumento usato per questo lavoro è l'analisi del colore, considerato per ogni punto dell'immagine come situato in un volume a 7 (o meno) dimensioni, la cui rappresentazione è riassunta in una combinazione dei valori RGB (Red, Green, Blue) dell'immagine derivata, in cui ogni colore fondamentale può essere una miscela di bande elettromagnetiche contigue.

Per fare questo ho dovuto studiare nei particolari i vari formati interni delle immagini, in particolare il formato GIF e la compressione LZW modificata, per generare immagini compatibili e quindi poterle scambiare senza problemi in rete.  A questa attività si aggiunge quella di costruzione del database, strutturato in modo che nella cartografia che appare sul video si possa scegliere col mouse la zona di interesse (che funziona come un bottone, pur non essendo di forma rettangolare), e riceverne le immagini e i dati collegati.  Esempi di mappe sensibili di questo tipo sono le pagine web del progetto Posidonia e del progetto Dati Tematici per le Amministrazioni Locali.  Questo si traduce in una serie di programmi html/script Unix residenti sul server di rete del gruppo all'indirizzo http://gis.cnuce.cnr.it/.

 

16) - 1999-2001: Progetto Beni Culturali

Già da tempo mi ero occupato di cartografia in formato vettoriale.  Con il trasferimento al Consorzio Pisa Ricerche di Paolo Mogorovich, responsabile per il CNUCE del Progetto "Beni Culturali" entro a far parte del progetto.   Per questo ho sviluppato un programma Pascal che rappresenta graficamente i dati di Carta 2000, il formato vettoriale usato dalle amministrazioni pubbliche (comuni, provincie e regioni) per le planimetrie urbane, che è utile per chi non ha o non può istallare il software ArcView/ArcInfo.  Questo programma è in grado di funzionare da 640 x 480 (VGA) fino a 1280 x 960 pixel (super VGA), rappresenta tutti gli strati, o solo alcuni, ognuno con un colore diverso, usando 16 colori, che per una rappresentazione vettoriale sono sufficienti.