Cronache semiserie di un sistemista disperato – Capitolo n°2 : L'incubo delle password

[stextbox id=”custom” big=”true”]Ritornano su Camminando Scalzi.it le ironiche (ma vere) avventure del Sistemista Disperato! Per rileggere il primo capitolo della saga basta cliccare qui! Buona lettura e buon divertimento![/stextbox]

Assorto nei suoi pensieri, un’espressione serena sul volto. E’ venerdì, sono ormai le 18, ancora mezz’ora e il nostro Sistemista potrà finalmente assaporare la tanto agognata libertà. Tutti i casini settimanali sono alle spalle, il server dati fa di nuovo il backup, quello antispam ha ripreso a funzionare (niente scorte di viagra per il weekend dei nostri poveri utonti), nessun pc ha fatto le bizze nelle ultime ore. La mente vaga, comincia già ad assaporare una bella serata con gli amici, la pizza, il poker fino a tarda notte, la sveglia spenta il giorno dopo, tanto il sabato non si lavora. Ma a risvegliarlo da questo beato torpore ci pensa lo squillare del telefono. Un brivido gli corre lungo la schiena: in tanti anni di battaglie, i suoi sensi sono ormai talmente affinati da riconoscere il suono della richiesta di aiuto di un Utonto in mezzo a mille altri. Rassegnato, mentre alza la cornetta per rispondere vede chiaramente svanire davanti ai suoi occhi ogni sogno di tranquillità.

“Pronto?” esordisce con malcelato fastidio. “Sono l’Ing. Sottuttoio, il portatile non mi accetta più la password, può darmi una mano?” chiede una voce supplicante dall’altro lato della cornetta. “Certo, passi pure da me, posso resettargliela in pochi secondi.” risponde il nostro sistemista, ripresosi all’istante: per fortuna niente di grave, la sua serata è salva. “Ok, ora sono all’aeroporto, arriverò in azienda entro un’ora, grazie mille, a tra poco.” dichiara con voce ferma l’ingegnere, approfittando della sorpresa per attaccare all’istante. “Aspetti, sto per andar…” prova a replicare il nostro povero sistemista, senza successo: il pur scarso principio di felicità provato pochi minuti prima ha irrimediabilmente appannato i suoi riflessi.

Ormai rassegnato, con in cuor suo la speranza che il tutto riesca comunque a concludersi in tempo per non rinunciare alla propria serata, si avvia alla macchinetta del caffè, pronto ad ingurgitare una quantità di caffeina tale da consentirgli di accelerare il tempo percepito di attesa. “Ehi, cosa ci fai ancora qui, non dovresti andar via?” gli domanda uno dei colleghi del turno di notte, guadagnandosi la peggiore occhiata che il nostro sistemista sia in grado di lanciare dopo 5 giorni di duro lavoro. “Aspetto l’Ing. Sottuttoio, ha dimenticato la password del portatile.” “Beh, lo capisco, con tutte quelle parole d’ordine, come si fa a non dimenticarne qualcuna? Possibile che nel 2010 ancora non si utilizzino altri sistemi? Che so, le impronte digitali per esempio.” pontifica, ignorando lo sguardo carico di odio profondo. “Certo, e se poi qualcuno ti taglia il dito e lo usa per rubare tutti i tuoi dati? Molto meglio il riconoscimento dell’iride, è la nuova frontiera della protezione dati.” replica un altro collega, guadagnandosi uno sguardo a metà tra il divertito e il disgustato. “E se qualcuno ti cava gli occhi come la metti?” si oppone il terzo arrivato. “Sarebbe una buona idea.” risponde tra sé e sé il Sistemista, mentre si allontana sognando di utilizzare la stecchetta del caffè sui loro bulbi oculari.

Dopo una lunga attesa ed innumerevoli improperi lanciati contro il Dio dei sistemisti, l’Ing. Sottuttoio finalmente arriva. “Ecco il portatile, faccia in fretta che ho un lavoro da finire.” incalza con voce autoritaria. Trattenendosi a stento dal testare su di lui le appena conosciute nuove frontiere della protezione dati, rigirando tra le dita la stecchetta del caffè appuntita per l’occasione, il Sistemista porta a termine il suo compito. “Ecco, tutto a posto, adesso deve sceglierne una nuova.” “Vediamo un po’, il nome del mio cane no, quello di mia madre nemmeno… Potrei utilizzare il nome di mia moglie con la sua data di nascita.” “Si, mi sembra davvero un’ottima idea!” annuncia entusiasta il Sistemista, rinunciando a far notare la stupidità di una tale password pur di andar via il più in fretta possibile. “Ehi, perché non l’accetta?” Dopo aver letto la scritta sullo schermo, un dubbio attanaglia il nostro povero protagonista. “L’ha già utilizzata in passato, deve sceglierne un’altra.” “Ecco, ora ricordo, era questa la parola d’ordine che avevo dimenticato! Mi dispiace di averle fatto perdere tempo!”

Un dolore lancinante percorre il braccio del Sistemista: evidentemente la stecchetta attorno alla quale la mano si stringe rabbiosa è davvero troppo appuntita. Noncurante della sofferenza, con un fintissimo sorriso a 32 denti stampato in faccia, esclama: “Perfetto, meglio così, ora vado allora!” “Ok, la ringrazio ancora, passi una buona serata.” Fretta. Il cappotto afferrato al volo, si lancia a folle velocità lungo il corridoio. L’uscita è a pochi metri, la meta tanto agognata vicina. “Aspetti!! Qui non funziona niente!!!” Un grido lo blocca a mezz’aria, mentre salta gli ultimi gradini che lo separano dalla libertà. La caviglia dolorante, torna indietro disilluso, dando l’ultimo addio alla propria serata perfetta. “Non trovo più il file!!! Mi serve, devo fare la presentazione lunedì mattina!!!” Sarà una lunga nottata.

Dolore. Apre a fatica gli occhi, la coscienza torna lentamente. E’ caduto dalla sedia. La mano indolenzita nel tentativo maldestro di ripararsi, una fitta alla caviglia urtata contro la scrivania. Alza gli occhi alla parete: l’orologio segna le 18:30. Si era addormentato aspettando l’ultima mezz’ora. E’ stato solo un sogno? Non gli sembra vero. Il dolore lo rende quasi felice nel riportarlo alla realtà. La sua serata perfetta è ancora salva. Prende di corsa il giubbotto, si avvia alla porta della stanza. Ma il telefono squilla. L’incubo del Sistemista non finisce mai.

[stextbox id=”custom” caption=”Web-comics”]Come per il primo capitolo de “Il sistemista disperato” non può mancare la vignetta di Gabville (autore del fumetto Supporto Buongiorno) disegnata in esclusiva per Camminando Scalzi.it !!![/stextbox]

[stextbox id=”info” caption=”Vuoi collaborare con Camminando Scalzi.it ?” bcolor=”4682b4″ bgcolor=”9fdaf8″ cbgcolor=”2f587a”]Collaborare con la blogzine è facile. Inviateci i vostri articoli seguendo le istruzioni che trovate qui. Siamo interessati alle vostre idee, alle vostre opinioni, alla vostra visione del mondo. Sentitevi liberi di scrivere di qualsiasi tematica vogliate. Vi aspettiamo numerosi.[/stextbox]

Annunci

Videogioco violento in società violenta

C’è sempre una novità in agguato pronta a corrompere le menti dei giovani. È toccato alla TV, al cinema, alla musica, ai fumetti e persino ai libri. Ma negli ultimi anni  il dito viene periodicamente puntato sui videogiochi in generale e, più nello specifico, su quelli cosiddetti “violenti”. Fin dai primi anni ottanta, dai tempi di innocenti ma sanguinolenti giochini come “Soft and Cuddly” per lo Zx Spectrum, l’opinione pubblica si interroga sul tema della violenza digitale, accompagnata da uomini di legge e politici offesi dai contenuti considerati scabrosi, diseducativi ed immorali di giochi come Carmageddon, Silent Hill, Resident evil, Grand Theft Auto, solo per citarne alcuni. La domanda che tutti si pongono è: “I videogiochi, ed in particolare quelli violenti, fanno male?” Proverò a dare una risposta esauriente nel corso dell’articolo.

Cominciamo con un dato di fatto: è dal 2001 che il fatturato annuale del mondo dei videogame supera ampiamente quello del cinema. Si tratta di un medium ormai maturo che tratta tutte le tematiche tipiche della nostra cultura, al pari di altre forme di intrattenimento che godono di maggiore considerazione nell’opinione pubblica, come appunto il cinema o la letteratura. La ragione per cui esistono è semplicemente questa: hanno un mercato, c’è gente che li apprezza, li compra, ci gioca. E, numeri alla mano, si tratta di una fetta estremamente ampia della nostra società: lo stereotipo del videogiocatore adolescente, rinchiuso nella sua stanzetta, solitario ed asociale, non ha più motivo di esistere. Ormai si videogioca in ogni fascia culturale e di età ed esistono giochi per tutti i gusti. Che si desideri un passatempo poco complesso – casual game come campo minato e solitari, il sempre più diffuso Farmville e buona parte dei titoli per Nintendo DS come i vari Brain trainer ne sono un esempio – oppure essere un eroe che lotta per veder trionfare il bene, un pilota di aerei militari, un detective alle prese con un caso di omicidio, quasi ogni fantasia umana può essere soddisfatta da un videogame.

Partendo da queste basi, ci si chiede per quale motivo videogiochi con contenuti violenti abbiano un così grande successo commerciale. A San Marino si trova il “Museo della Tortura”, che contiene al suo interno simpatici gingilli che in ogni epoca sono stati utilizzati dall’uomo per straziare carne ed anima dei propri simili. Nel medioevo le torture di piazza erano considerate un’attrazione, morte e dolore erano compagne fedeli di ogni individuo, adulto o bambino che fosse. L’uomo è sempre uguale a sé stesso, il passare dei secoli e la rivoluzione tecnologica hanno modificato soltanto i mezzi con cui filtrare il senso della realtà, ma non hanno portato rivoluzioni positive o negative nel costituirsi dell’essere umano. Il nostro è oggi come allora un mondo grondante di sangue, governato da persone violente e regolato dalla legge del più forte, che ci piaccia o meno. È sufficiente accendere la televisione per rendersi conto che basta il più futile dei motivi perché una persona faccia del male ad un proprio simile. In un mondo del genere, per molti il videogioco violento diventa una forma di catarsi, uno sfogo della propria natura, in parte (inevitabilmente) violenta essa stessa, che non produce in alcun modo un’estensione nella realtà dei propri istinti. In pratica, un individuo sano di mente non proverà mai a sparare o investire qualcuno soltanto perché gli è piaciuto farlo impugnando un joypad o un mouse.

Questo ovviamente vale per un individuo adulto. Cosa potrebbe succedere invece ad un bambino, posto davanti ai forti stimoli di un videogioco di questo genere? Molto prima che vi si apponesse il suffisso “video” esistevano (ed esistono ancora oggi, anche se forse vengono fatti meno frequentemente) i giochi, quelli da fare in strada. Giochi di guerra, cowboy contro indiani, poliziotti contro malviventi; chi non li ha provati almeno una volta nel cortile sotto casa? A volte capita che a passatempi del genere si aggiunga la violenza fisica: spinte, calci e zuffe assortite. Senza parlare della violenza psicologica: i bambini spesso sanno essere crudeli, essendo privi di mediatori culturali in grado di sfavorire la discriminazione, e notano ogni più piccolo difetto offendendo, deridendo e allontanando i loro stessi compagni di giochi. Questi giochi si protraggono da sempre, eppure secondo l’immaginario comune non sono considerati diseducativi. C’è differenza tra il simulare violenza dal vivo e il simularla tramite un videogioco? Se giochi violenti non hanno trasformato tutti i nostri antenati più o meno lontani in mostri assetati di sangue, perché dovrebbe farlo il semplice replicare su uno schermo le stesse azioni?

La verità è che sarebbe compito di un buon genitore mediare queste esperienze, insegnare il lecito ed il non lecito, ciò che è male e ciò che è bene, in sintesi EDUCARE. Si tratta di un compito estremamente difficile, ma reso possibile dal fatto che ha vissuto esperienze simili crescendo, quindi può trasferire a suo figlio il bagaglio di conoscenze che ha accumulato, nel tentativo di renderlo ogni giorno migliore. Ma cosa succede quando queste esperienze tendono a diventare invece estremamente diverse? Di fronte alla nascita di nuove forme di intrattenimento i genitori moderni si sono trovati spiazzati, trattandosi di un qualcosa a loro completamente sconosciuto. Molti si sono adattati, imparando a conoscere questi nuovi passatempi per essere in grado di scegliere quelli più adatti alla crescita psicologica del proprio bambino; i restanti hanno preferito scagliarsi contro un mondo che non comprendono, preferendo dare ad altri la colpa delle proprie mancanze.  È infatti molto più comodo abbandonare un figlio di fronte alla tv o ad un videogioco senza curarsi del contenuto di cui sta fruendo, piuttosto che impegnarsi ad entrare nel suo mondo per poter scegliere in maniera consapevole. Ma è davvero così difficile per un genitore capire quali videogiochi possano aiutare nel difficile compito educativo senza provocare danni?


Questo è il punto centrale della questione. Esistono da anni organi preposti alla valutazione dei prodotti videoludici (in Europa il PEGI) che possono vietare un gioco ai minori di una certa età, scrivendo inoltre sulla confezione se sono presenti  violenza, sesso, utilizzo di droghe, gioco d’azzardo e finanche linguaggio scurrile. Cosa c’è di più semplice che leggere direttamente sul gioco che si sta per acquistare quali ne sono i contenuti e decidere di conseguenza? Ma alla madre che sente piagnucolare il proprio pargolo perché gli compri un GTA qualsiasi questo non importa, per lei si tratta soltanto di giochini e non di prodotti culturali, che in quanto tali possono modificare l’esperienza di vita al pari – se non di più, data la componente interattiva – di un libro o di un film. I mezzi  di comunicazione approfittano di questa ignoranza, cavalcando volentieri  le legittime paure di ogni genitore e dando la colpa ai videogiochi di omicidi e fatti di cronaca violenta che ne vedano i protagonisti come fruitori: il massacro di Columbine, la strage nel campus in Virginia, gli omicidi di Winnenden, il recente accoltellamento di Torino sono solo alcuni degli innumerevoli esempi nei quali si è preferito percorrere questa strada, maggiormente redditizia in termini di clamore generato, invece che interrogarsi seriamente sul profondo disagio psicologico dei giovani protagonisti. Così come giudici, avvocati, politici approfittano della situazione per uscire dall’anonimato e conquistare voti e consensi.

Tornando alla domanda posta ad inizio articolo, i videogiochi violenti fanno male? La risposta è sì, ma solo se messi nelle mani di individui ancora da formare e privi della corretta supervisione. Perché tentare di eliminarli, quando esistono strumenti che permettono di tenerli lontani da coloro che realmente possono esserne influenzati in maniera negativa? Si impedisce forse ad un regista, uno scrittore, un fumettista, un pittore di inserire scene violente nelle proprie opere? Purtroppo sembra far parte della natura umana il cercare di impedire agli altri di vivere esperienze che non si è in grado di comprendere. Io ho provato di tutto. Ho spaccato la testa ai passanti con una mazza da baseball. Fatto saltare arti a soldati nemici con un machete. Accoltellato donne e vecchi. Estratto la spina dorsale al mio avversario. Fatto esplodere auto ed interi edifici. Abbattuto aerei ed elicotteri. Bruciato foreste piene di vita con bombe al napalm. Assassinato migliaia di persone. E non ho ancora smesso. Avete paura di me? Dovreste invece aver paura della vostra ignoranza: è quella ad uccidere davvero.

Bibliografia

  • Petrone, L. – Dalla violenza virtuale alle nuove forme di bullismo. Strategie di prevenzione per genitori, insegnanti e operatori – Magi, 2008
  • William T. Vollmann – Come un’onda che scende e che sale – Mondadori, 2007
  • Tanoni, I. – Videogiocando s’impara. Dal divertimento puro all’insegnamento-apprendimento – Erickson, 2003
  • Bartolomeo, Annella & Simone Caravita – Il bambino e i videogiochi. Implicazioni psicologiche ed educative –  Edizioni Carlo Amore, 2005
  • Ciofi Rolando & Dario Graziano –  Giochi pericolosi? Perché i giovani passano ore tra videogiochi on line e comunità virtuali – Franco Angeli, 2003
  • Durkin & Barber – Not so doomed: Computer game play and positive adolescent development – Applied Developmental Psychology, 2002
  • Greenfield, P. M. – Mente e media. Gli effetti della televisione, dei computer e dei video-giochi sui bambini – Armando Editore, 1995
  • Nardone, R – I nuovi scenari educ@tivi del videogioco – Junior, 2007
  • Herz, J. C. – Joystick nation. How videogames ate our quarters, won our hearts, and rewired our minds – Little Brown and Co., 1997
  • Ceccherelli, A. – Oltre la morte. Per una mediologia del videogioco – Liguori, 2007
  • Anderson, Gentile,  Buckley – Violent video game effects on children and adolescents. Theory, research, and public policy – Oxford University Press, 2007
  • Goldstein, J. – Does playing violent videogames cause aggressive behaviour?” – Cultural Policy Chicago, 2005
  • Ghezzo, P. – Videogiochi e minori. Miti, valori e modelli di comportamento – IIMS, 2007
  • Jones, G. – Killing Monsters: Why Children Need Fantasy Games, Superheroes and Make-Believe Violence – Basic Books, 2005
  • Harvey, C. – Grand Theft Auto. Motion eMotion – Edizioni Unicopli, 2005
  • Alinovi, F. – Mi gioco il cervello. Nascita e furori dei videogiochi – Liocorno, 2000
  • Kermol E. & Pira F. – Videogiocando. Pro e contro i nuovi divertimenti dei bambini – Cleup, 2001

Equo dissenso sull'equo compenso

Comincio l’articolo con una premessa: non parlerò di diritti d’autore, del ruolo della SIAE come intermediario nel percepire i proventi di questi diritti o della effettiva redistribuzione che ne viene fatta; parlerò invece dell’ennesimo tentativo dello Stato di rallentare lo sviluppo tecnologico di questo paese, imponendo una tassa che costringe un italiano a pagare cifre sensibilmente più alte di un qualsiasi cittadino europeo per beni ormai entrati a far parte dell’uso comune.

L’equo compenso è una somma di denaro versata a priori alle società preposte alla protezione ed all’esercizio dei diritti d’autore (nel nostro paese la SIAE) e serve a compensare le presunte perdite che l’industria discografica e cinematografica affermano di subire a causa della condivisione illegale di brani musicali e film. Questa tassa, diffusa in tutta Europa, viene versata dai consumatori solo in seguito all’acquisto di Cd, Dvd e masterizzatori, oltre a supporti ormai obsoleti come VHS ed audiocassette.

Lo scorso 30 dicembre però qualcosa è cambiato: il ministro dei Beni e delle Attività Culturali Sandro Bondi, sfruttando il ben noto trucchetto di utilizzare il periodo festivo di fine anno per far uscire in sordina leggi scomode – vedi gli articoli sul digitale terrestre (decreto salva Rete4) e sul wireless (proroghe al decreto Pisanu) per altri esempi – ha firmato un decreto legge che estende il range di applicabilità dell’equo compenso ad un numero di dispositivi e supporti molto più ampio di quello precedente. In sostanza, qualunque dispositivo dotato di “supporto registrabile” come ad esempio pendrive, schede di memoria, hard disk, cellulari, console, decoder viene interessato dall’applicazione della tassa, con un contributo fisso o in proporzione alla quantità di dati stoccabile, secondo delle tabelle presenti nello stesso decreto.

Facciamo qualche esempio, tenendo conto di alcuni tra i prodotti tecnologici più diffusi :

  • Un hard disk esterno da oltre 400 Gbyte (la quasi totalità di quelli attualmente in vendita) verrà tassato per 0,01 € al Gbyte. Considerando che l’attuale street price di un’unità da 1 Terabyte è intorno agli 80 €, si avrà un aumento di 10 €, pari ad oltre il 10%.
  • Un lettore Mp3 con una capacità tra i 2 e gli 8 Gbyte (i più venduti attualmente) vedrà aumentare il suo prezzo dai 5,15 € ai 6,44 €, quelli di capacità superiori arriveranno ad aumenti fino a 12,88 € .
  • Per quanto riguarda i cellulari, la cifra da pagare sarebbe di soli 0,90 € ad apparecchio; ma il decreto specifica che per gli apparecchi polifunzionali dotati di memoria (in pratica tutti i cellulari di ultima generazione) bisogna pagare invece in base alle dimensioni di quest’ultima, ad esempio un Iphone da 32 GB costerà 6,44 € in più.

Provate anche voi come Giacomo Dotta ad effettuare, basandovi sulle tabelle del decreto, un rapido calcolo di quanto vi sarebbero costati in più i vari prodotti tecnologici che avete in casa. Io, arrivato a cifre vicine ai 200 euro, ho dovuto smettere per sopraggiunto esaurimento nervoso.

La manovra farà confluire ingenti flussi di denaro nelle casse della Società Italiana Autori ed Editori: secondo le stime di Confindustria e Assinform infatti, vedrà i suoi introiti per l’equo compenso quadruplicare nel solo 2010, passando dagli attuali circa 70 milioni di euro a oltre 300, recuperati a danno dei consumatori in un periodo di feroce crisi economica. La cosa in assoluto più grave è che si tratta, per la prima volta nella storia, di una tassa sullo sviluppo tecnologico: al migliorare delle tecnologie aumenta la quantità di dati che è possibile registrare su di un supporto e quindi anche l’obolo dovuto alla SIAE. Inoltre il decreto prevede una revisione delle tabelle dopo 3 anni che porterà certamente, visti i precedenti, ad ulteriori aumenti.

La SIAE si difende comunicando che queste entrate saranno redistribuite agli autori, editori, artisti ed a tutti gli aventi diritto, affermando inoltre che non si tratta di una tassa ma di diritti d’autore e quindi dello stipendio di chi produce opere (film, canzoni, ecc). Come scritto nell’introduzione, non è mia intenzione trattare in questo articolo del diritto d’autore (che ritengo sacrosanto) né di quanta parte dei soldi raccolti vadano davvero a finire agli autori (si parla di cifre prossime al 76% del bilancio della società utilizzate per pagare il solo personale); proverò invece a fare alcune considerazioni, ovviamente passibili di smentite, sui possibili effetti che questa legge potrebbe portare a tutto il mercato tecnologico italiano.

Per i consumatori di beni tecnologici di tutto il mondo, gli effetti della crisi economica si faranno sentire con maggior forza nel corso del 2010. L’anno appena trascorso ha visto infatti una riduzione del volume di produzione di componentistica, dovuto alla minor richiesta, e una riduzione degli investimenti in nuove fabbriche. Quindi i previsti aumenti della domanda nel corso dell’anno faranno sì che ci sia un aumento generalizzato dei prezzi, in particolare nel mercato delle memorie, dove i produttori operano in sofferenza già da un paio di anni. A questi andrà sommato soltanto in Italia quanto dovuto a causa del decreto Bondi, portando i consumatori italiani a subire aumenti anche superiori alle 2 cifre percentuali. Quanto impatterà questa situazione sui consumi, nel paese dei 1000 euro al mese?

Gli effetti più gravi però si avranno probabilmente nel mercato professionale. Le nostre aziende, già martoriate dalla crisi e dal sistema fiscale, messe in difficoltà dalle resistenze delle banche a concedere prestiti ed in costante debito di competitività nei confronti delle aziende straniere, si troveranno a dover fronteggiare gli aumenti nel momento peggiore. Questo porterà ad un ulteriore decremento di quegli investimenti in nuova tecnologia che sono indispensabili per uscire dalla crisi e per competere con le aziende estere, relegando sempre di più il nostro paese in quel terzo mondo tecnologico nel quale stiamo scivolando.

Ovviamente non pretendo di trattare in maniera esaustiva un argomento così complesso e sfaccettato, spero però di essere riuscito a dare sufficienti spunti a chi intenda approfondire. Si parla da tempo di azzeramento del digital divide, dell’idea di un pc con collegamento ad internet in tutte le case ed in tutte le scuole, della digitalizzazione della pubblica amministrazione; ma a tutti questi buoni propositi si contrappone l’attuale movimento politico, che sembra fare di tutto per svilire ogni tentativo del nostro paese di risalire la china. Il decreto Bondi non farà altro che precipitare ancora di più il nostro paese verso l’abisso della mediocrità e dell’arretratezza, e a farne le spese non saremo soltanto noi, ma soprattutto le future generazioni. Abbiamo soltanto un’arma a disposizione: persone in grado di prendere decisioni simili, miopi e dannose, non sono degne di essere elette. Quando lo capiremo?

L’overload informativo nell’era di Internet

Una decina di anni fa qualcuno ha definito internet “l’unione di tutte le biblioteche del mondo, dove però qualcuno si è divertito a buttare giù tutti i libri dagli scaffali*”. Oggi l’affermazione è più che mai attuale con un trend di crescita esponenziale della quantità di nuovi contenuti generati, amplificato dalla continua nascita di nuovi canali di distribuzione – blog, social network, microblogging solo per citare i più diffusi – che spingono anche i più pigri a condividere le proprie conoscenze. Se da un lato l’abbondanza di fonti e dunque di punti di vista è un bene, sappiamo tutti che in genere quantità e qualità non vanno d’accordo: diventa quindi di crescente importanza l’essere in grado di trovare, in questo oceano di dati digitali, quello che possa davvero esserci utile.

Jakob Nielsen, noto in rete per i suoi articoli sul tema dell’usability, in un’intervista si lamenta dello spam, delle informazioni dannose e inutili che si trovano sul web e di quello che, in generale, ha definito “inquinamento dell’informazione”. La presenza di cattive fonti in rete è nota a tutti, quello che spesso non è chiaro è la diffusione del fenomeno: si calcola che oltre i due terzi delle email inviate ogni giorno soltanto in Italia siano di spam; non si contano il numero di siti di phishing e contenenti virus, spesso destinati a creare enormi botnet che contribuiscono ulteriormente ad aumentare l’entropia della rete.

Peraltro, si stima che attualmente i motori di ricerca riescano a censire non più di un terzo delle pagine web dei normali siti internet; oltre a queste, rimane nascosto agli occhi dei search engine gran parte dell’immenso patrimonio di materiale memorizzato in centinaia di banche dati on-line che a suo tempo si stimò essere pari a 500 volte i documenti censiti dai motori di ricerca. L’information overload è qualcosa che riguarda praticamente chiunque, e rende necessario non solo imparare a gestire questa mole crescente di contenuti, ma anche sviluppare la capacità di accedere alle fonti giuste e scovare le informazioni pertinenti, facendolo altresì velocemente perché la società moderna continua ad accelerare i suoi ritmi ed il tempo diventa una risorsa sempre più scarsa e preziosa.

Sul blog [mini]marketing si parla del rapporto tra “sapere le cose” e “sapere come trovarle”:

“Ora, in cui il network (non solo tecnologico) è ubiquo e strabordante di informazioni, il vantaggio competitivo non è più nel conoscere ma nell’essere più efficienti ed efficaci nel sapere come e dove procurarsi l’informazione.”

L’attuale dinamica della conoscenza (pesantemente influenzata dalla condivisione in rete) porta a rendere obsolete in breve tempo le informazioni; questo spinge molti a tentare di tenersi aggiornati, finendo però con lo sbattere contro il muro dell’eccessiva quantità di informazioni, e spesso trovandosi nel dubbio se le fonti consultate siano o meno affidabili. Le competenze per districarsi in questa mole di dati non le insegna nessuno e sono lasciate all’istinto, al buon senso e all’intuizione dei singoli. L’esperienza conta poco, anzi, le maggiori difficoltà lamentate dai meno giovani nascono semplicemente dalla maggior quantità di cose che sono costretti a “disimparare”.

Un ulteriore problema è dato dalla frammentazione. Il professore Giovanni Degli Antoni, in un articolo su Epolis, ci svela quale sia una delle competenze indispensabili per sopravvivere alla complessità del mondo d’oggi: “Capire i nessi fra i frammenti che ci pervengono. La conoscenza sui nessi ci aiuterà a deframmentare ciò che i media frammentano.” Data la molteplicità di fonti appartenenti a loro volta a molteplici canali di distribuzione, diventa spesso difficile comprendere i nessi presenti tra informazioni apparentemente slegate tra loro. Inoltre per sua stessa natura Internet si presta – a differenza dei media tradizionali come la televisione – ad essere fruita in modo non continuativo, aggiungendo la frammentazione temporale a quella informativa.

Si ha l’impressione che queste difficoltà non siano percepite se non da una ristretta cerchia del popolo di Internet. L’unico modo per gestire il problema dell’immediato ma anche e sopratutto del futuro – cioè l’overload di informazioni, che è destinato ad aumentare esponenzialmente nei prossimi anni – è una mirata attività di formazione che possa fornire a tutti i cittadini la capacità di apprendere in maniera autonoma, cercare le informazioni in rete ed essere in grado di integrarle ed usarle nei contesti di interesse. Come scritto in un precedente articolo, questa attività di formazione dovrebbe essere guidata dalle istituzioni, ma visto il totale disinteresse di queste ultime per l’argomento informatico in generale, viene demandata ai singoli, spesso incapaci per motivi culturali ed economici a farvi fronte. Quali problemi potrà creare questa situazione alle future generazioni digitali? Soltanto il tempo potrà svelarlo.

* Forse una libera traduzione di “Doing research on the Web is like using a library assembled piecemeal by pack rats and vandalized nightly”, pronunciata da Roger Ebert. NdR.

Wireless libera tutti

Si avvicina la fine dell’anno e, per quanto riguarda la connettività in Italia, si pone il problema della scadenza o meno del cosiddetto decreto Pisanu. Nello specifico, si tratta della legge 31 luglio 2005 n. 155, che converte il decreto-legge 27 luglio 2005 n. 144, recante misure urgenti per il contrasto del terrorismo internazionale. Com’è possibile che una legge studiata per combattere il terrorismo si sia rivelata uno dei maggiori vincoli allo sviluppo della rete wireless nel nostro paese? Scopriamolo insieme.

Una rete wireless sfrutta dei dispositivi chiamati access point, che distribuiscono il segnale nell’aria utilizzando onde radio e generando così un Hotspot, all’interno del quale è possibile per i dispositivi compatibili – tutti i portatili venduti negli ultimi 6 anni e molti dei cellulari più avanzati, ma esistono adattatori per quelli che non lo fossero – connettersi ad internet senza l’utilizzo di cavi. Questo permette la diffusione di internet anche in zone che non possono essere cablate, contribuendo alla diminuzione del digital divide, ma pone anche problemi di sicurezza, in quanto una rete non protetta lascia libero l’accesso anche ai malintenzionati, con l’ovvia difficoltà nell’individuazione data dalla mancanza di un punto di accesso fisico.

Il decreto Pisanu nasce nel 2005 pochi giorni dopo gli attentati terroristici del 7 Luglio a Londra, senza alcuna analisi d’impatto economico-sociale e senza discussione pubblica. Doveva essere provvisorio, ed è infatti già scaduto due volte (fine 2007 e fine 2008) ma è stato due volte prorogato. Si tratta di una serie di norme che non hanno alcun corrispettivo in nessun Paese democratico: nemmeno il Patriot Act USA, approvato dopo l’11 settembre 2001, prevede l’identificazione di chi si connette a Internet da una postazione pubblica. Tra i vari articoli che favoriscono il lavoro delle forze dell’ordine nell’individuare e trattare eventuali terroristi presenti nel nostro territorio, una parte è dedicata alle comunicazioni, introducendo una serie di misure che si avvicinano molto a quelle adottate in Cina per il controllo della navigazione dei propri cittadini. Riassumendo, chiunque offra al pubblico un servizio di connessione ad internet tramite terminali, prese ethernet o wireless deve adempiere ad una serie di obblighi:

  1. Richiedere una licenza in questura.
  2. Identificare il soggetto al quale si offre il servizio, trascrivendone i dati anagrafici su un registro e conservandone la fotocopia di un documento di identità.
  3. Tenere traccia, su di un supporto che non possa essere modificato nel tempo, delle attività svolte dal soggetto.

Il tutto vale non solo per gli esercizi pubblici – internet point, bar, ristoranti – ma anche per chiunque, da casa propria, dia accesso internet a terzi. Ma per quale motivo un privato dovrebbe essere interessato a condividere la propria connessione con degli estranei?

Il modo più frequente nel quale ciò accade è per scarse conoscenze informatiche, in quanto non tutti sentono la necessità né sono in grado di proteggere la propria rete senza fili dagli accessi non autorizzati. Ma nell’ottica della condivisione che ha sempre contraddistinto internet fin dalla sua nascita è nato il movimento Fon. Chiunque acquisti una Fonera entra a far parte della comunità dei Foneros: condividendo una porzione della propria banda internet attraverso l’ Hotspot generato dall’apparecchio, si ha il diritto di connettersi gratuitamente a tutte le Fonera presenti nel mondo, al momento più di 700.000. Questo consente di diminuire il digital divide, permettendo a chiunque di connettersi ad internet anche in assenza di reti a gestione pubblica.

Tutto molto bello sulla carta; peccato che in Italia, grazie al decreto Pisanu, il movimento Fon sia completamente illegale, a meno di non affacciarsi dalla finestra chiedendo i documenti a chiunque voglia utilizzare il proprio Hotspot. Queste limitazioni hanno fatto in modo che negli ultimi anni il nostro sia stato uno dei paesi a più basso tasso di crescita del numero delle reti wireless nel mondo, ponendo un grosso freno allo sviluppo culturale ed economico, considerando l’ampio numero di zone che non è possibile cablare per motivi geografici o di costi.

Cosa si sta facendo per combattere questa situazione che ci pone come al solito in svantaggio nei riguardi del resto del mondo civile? Alcune amministrazioni locali particolarmente intraprendenti stanno sviluppando reti wireless aggirando la legge, ad esempio utilizzando i cellulari per l’identificazione (in Italia ogni scheda sim è venduta soltanto dietro la presentazione di un documento di identità) o registrando preventivamente l’utente, consentendogli di accedere con un unico account a tutti gli Hotspot presenti sul territorio interessato. I progetti sono presenti quasi tutti al Centro-Nord: tra i primi a partire, quelli di Bologna e Reggio Emilia (dal 2006), gli ultimi in ordine di tempo sono di Pescara (20.000 euro di spesa) e di Firenze (in dieci piazze il Comune regala un’ora di WiFi). Il progetto forse più attivo al momento è ProvinciaWiFi: con 2 milioni di euro di budget, si punta entro il 2010 ad ottenere 500 Hotspot in tutta Roma e comuni limitrofi.

Quello che manca è un appoggio deciso del governo, anche se sembra che qualcosa stia finalmente muovendosi: il deputato del Pdl Cassinelli pubblicizza tramite il proprio blog la proposta di legge n. 2962, che dovrebbe eliminare tutti gli attuali vincoli legislativi, attirando verso di sé le attenzioni della rete. Forse è troppo poco, ma è sicuramente un segnale positivo, attendendo gli sviluppi previsti per fine anno. Ci sarà un ulteriore rinnovo del decreto Pisanu, o riusciremo finalmente a liberarcene per fare un passo verso uno sviluppo possibile, ma troppe volte rimandato?

Al momento nel nostro paese il wireless pubblico è osteggiato e si sviluppa a macchia di leopardo, senza alcuna best practice né coordinazione, e con la solita esclusione delle aree del sud da ogni minimo progresso tecnologico. Come scritto in un precedente articolo, l’unico modo per combattere l’analfabetismo informatico che ci attanaglia è quello di diffondere le moderne tecnologie, internet in primis; ma la conclusione è ancora una volta la stessa: senza un cambio deciso di mentalità da parte delle istituzioni siamo avviati verso un baratro del quale si fatica a vedere il fondo.

Hacker: malvivente o semplice curioso?

Nel giornaliero peregrinare lungo le autostrade dell’informazione, a tutti è capitato di imbattersi nella parola hacker. Dai mezzi di comunicazione l’hacker viene descritto come un malvivente, pronto a derubare grazie al furto delle password, all’introduzione nei computer delle proprie ignare vittime, alla violazione dei sistemi informatici di aziende ed istituti di credito. Ma cos’è davvero un hacker? In questo articolo proverò a spiegarlo.

Hacking1

La maggioranza degli odierni hacker fa risalire l’etimologia del termine al MIT, dove compare nel gergo studentesco all’inizio degli anni ’50. Per quanti frequentano l’istituto in quegli anni,  il termine “hack” viene usato come sinonimo di goliardata, ad indicare gli scherzi tipici da campus. È a questo che si ispira il termine “hacking”: prendere in giro qualcuno, divertirsi, in modo creativo e innocuo. Più avanti negli anni ’50, la parola acquista una connotazione più netta e ribelle. Al MIT vige un elevato livello di competizione e l’attività di hacking emerge come reazione alla tensione accumulata e per dare spazio a pensieri e comportamenti creativi repressi dal rigoroso percorso di studio dell’istituto. Gli hacker si divertono ad esplorare la miriade di corridoi e tunnel sotterranei presenti nel campus, non intimoriti da porte chiuse e cartelli di divieto, il cosiddetto “tunnel hacking”, e prendono di mira il sistema telefonico interno violandolo con un’attività battezzata “phone hacking“, poi diventata il moderno ”phreacking”.

Hacking2

Sul finire degli anni ’50, arriva nel campus il TX-0, uno dei primi modelli di computer lanciati sul mercato. Non ci vuole molto perché gli hacker mettano le mani sulla macchina, utilizzando il proprio spirito di gioco creativo: a differenza della scrittura del software “ufficiale”, gli hacker compongono i propri programmi con poco rispetto di metodi e procedure. Questo porta ad un mutamento etimologico del termine: hack prende il suo significato moderno, quello della forma sostantiva del verbo inglese “to hack” che significa “tagliare”, “aprirsi un varco”, inteso appunto tra le righe di codice che compongono i programmi software.  Un classico esempio di quest’ampliamento della definizione di hack è Spacewar!, il primo videogame interattivo. Sviluppato nei primi anni ’60, Spacewar ha le caratteristiche tipiche dell’hack tradizionale: un divertimento, una distrazione per le decine di hacker del MIT. Inoltre è completamente libero e gratuito: avendolo realizzato per puro divertimento, gli hacker  non vedono motivo per restringerne in alcun modo l’utilizzo, favorendone così la diffusione in ogni parte del mondo.

Hacking4

Nella seconda metà degli anni ’70 il termine “hacker” assume la connotazione di élite. Per potersi definire hacker, una persona deve compiere qualcosa di più che scrivere programmi interessanti: deve far parte dell’omonima cultura e onorarne le tradizioni. Pur se con una struttura sociale aperta, gli hacker di istituzioni elitarie come il MIT, Stanford e Carnegie Mellon iniziano a parlare apertamente di “etica hacker“: le norme non ancora scritte che ne governano il comportamento quotidiano. Nel libro del 1984 “Hackers. Gli eroi della rivoluzione informatica“, l’autore Steven Levy, dopo un lungo lavoro di ricerca e consultazione, codifica questi principi fondamentali:

  • L’accesso ai computer – e a tutto quello che può insegnare qualcosa sul modo in cui funziona il mondo – deve essere illimitato e totale;
  • Obbedire sempre all’imperativo hands-on (ovvero prova, sperimentazione ed esperienza in prima persona ndCT);
  • Tutte le informazioni dovrebbero essere libere;
  • Diffidare dell’autorità – promuovere la decentralizzazione;
  • Gli hacker devono essere giudicati per la loro azione di hacking, non per falsi criteri come grado, età, razza o posizione;
  • E’ possibile creare arte e bellezza su un computer;
  • I computer sono in grado di migliorare la vostra vita.

Hacking5

A partire dai primi anni ’80 i computer cominciano a diffondersi, e i programmatori che una volta dovevano recarsi presso grandi istituzioni o aziende soltanto per aver accesso alla macchina, si trovano a stretto contatto con hacker di grande livello via ARPANET e cominciano ad appropriarsi delle filosofie anarchiche tipiche della cultura hacker. Tuttavia, nel corso di un simile trasferimento di valori va perduto il tabù culturale originato al MIT contro ogni comportamento malevolo. Mentre i più giovani iniziano a sperimentare le proprie capacità con finalità dannose – creando e disseminando virus, facendo irruzione nei sistemi informatici militari, provocando il blocco di macchine quali lo stesso Oz del MIT, popolare nodo di collegamento con ARPANET – il termine “hacker” assume connotati punk, nichilisti. Quando polizia e imprenditori iniziano a far risalire quei crimini a un pugno di programmatori che citano a propria difesa frasi di comodo tratte dall’etica hacker, quest’ultimo termine inizia ad apparire su quotidiani e riviste con una denotazione del tutto negativa. Nonostante libri come quello di Levy avessero fatto parecchio per documentare lo spirito originale di esplorazione giocosa da cui nacque la cultura dell’hacking, per la maggioranza dei giornalisti “computer hacker” diventa sinonimo di “rapinatore elettronico”.

Hacking6

Anche di fronte alla presenza, negli ultimi due decenni, delle lamentele degli stessi hacker contro questi abusi, le valenze ribelli del termine risalenti alla nascita del fenomeno rendono difficile distinguere tra un quindicenne che scrive programmi capaci di infrangere le protezioni e li utilizza per il puro scopo di far danni, dallo studente degli anni ‘50 che sfonda le porte per puro spirito di scoperta e conoscenza. D’altra parte, quella che per qualcuno è soltanto sovversione creativa dell’autorità, non è altro che un problema di sicurezza per qualcun altro. L’essenziale tabù contro comportamenti dannosi trova conferma a tal punto da spingere la comunità hacker a coniare il termine cracker – qualcuno che volontariamente decide di infrangere un sistema di sicurezza informatico per rubare o manomettere dei dati – per indicare quegli hacker che abusano delle proprie capacità. Scrive Randolph Ryan, giornalista del Boston Globe, in un articolo del 1993: “L’azione di hack richiede attenta pianificazione, organizzazione e finezza, oltre a fondarsi su una buona dose di arguzia e inventiva. La norma non scritta vuole che ogni hack sia divertente, non distruttivo e non rechi danno. Anzi, talvolta gli stessi hacker aiutano nell’opera di smantellamento dei propri manufatti“.

Hacking7

Rispondendo alla domanda presente nella prima parte dell’articolo, un hacker è semplicemente una persona curiosa, che sfrutta le proprie conoscenze informatiche per esplorare, noncurante delle barriere imposte; non crea alcun tipo di danno ma anzi, aiuta i gestori dei sistemi violati a chiudere i buchi nella sicurezza che gli hanno permesso di accedere; il suo unico scopo è approfondire la conoscenza del mondo che lo circonda. La percezione negativa che l’opinione pubblica ha del fenomeno dell’hacking è frutto della cattiva informazione, che punta più al sensazionalismo fine a sé stesso che alla verità dei fatti. Nessuno può negare che esistano persone che sfruttano le proprie capacità informatiche per provocare danni ed ottenere un profitto economico: questi non sono hacker ma cracker, e la distinzione non è semplicemente nei termini, ma nel sistema etico che regola un intero movimento.

[stextbox id=”info” caption=”Vuoi collaborare con Camminando Scalzi.it ?” bcolor=”4682b4″ bgcolor=”9fdaf8″ cbgcolor=”2f587a”]Collaborare con la blogzine è facile. Inviateci i vostri articoli seguendo le istruzioni che trovate qui. Siamo interessati alle vostre idee, alle vostre opinioni, alla vostra visione del mondo. Sentitevi liberi di scrivere di qualsiasi tematica vogliate. Vi aspettiamo numerosi.[/stextbox]

Digitale terrestre, la solita storia all'italiana

Il digitale terrestre (DDT) arriva finalmente anche nel nostro paese. Decantata come una tecnologia innovativa negli spot, presentata nel 2003 dal ministro Gasparri come “paradiso digitale terrestre”, è in realtà una tecnologia vecchia, le cui sperimentazioni risalgono addirittura ai primi anni ’70. Già verso la fine degli anni ’90, paesi come Stati Uniti, Inghilterra, Finlandia, Svezia e Svizzera hanno effettuato il passaggio globale a questa tecnologia. L’Italia come suo solito arriva in mostruoso ritardo: proviamo a ripercorrere le tappe di questo storico passaggio, e a capire cosa comporterà per il futuro della fruizione televisiva.

Paradiso digitale terrestre

La storia del passaggio dal sistema analogico a quello digitale terrestre in Italia è stata lunga e travagliata. Dagli anni Ottanta, più del 90% degli introiti pubblicitari sono in mano alla Rai e alla Mediaset. Le istituzioni sollecitano l’apertura del mercato televisivo ma è dal 2001, con l’elezione a presidente del Consiglio del proprietario di quest’ultima, Silvio Berlusconi, che la questione diventa spinosa. Nel luglio dell’anno successivo il presidente della Repubblica Ciampi invia un messaggio alle camere nel quale richiama l’attenzione sull’importanza, per il corretto funzionamento di una democrazia, del cosiddetto pluralismo dell’informazione, cioè della necessità che tutti i punti di vista, politici e non, siano adeguatamente rappresentati nei mezzi di comunicazione: evidente riferimento al mercato italiano, nel quale tre reti sono di proprietà del presidente del Consiglio e le altre tre sono l’emanazione di uno stato del quale è capo del governo. Si tenta di riequilibrare almeno in parte la situazione quando nel novembre dell’anno successivo la Corte Costituzionale fissa un limite: entro il 31 dicembre 2003 una rete Mediaset (Rete 4) si sarebbe dovuta spostare sul satellite per far posto ad Europa Sette. Ma prima della scadenza vengono approvati la riforma Gasparri, non controfirmata da Ciampi e, alla vigilia di Natale, il cosiddetto decreto salva Retequattro: si permette a Rete4 di continuare a trasmettere fino al 30 aprile successivo, quando l’Authority delle comunicazioni (AGCOM) avrebbe presentato il risultato di uno studio sulla diffusione sul territorio nazionale dei decoder digitali terrestri. La diffusione è considerata sufficiente, salvando così la terza rete Mediaset.

Digitale sulla terra

Qualcuno si è chiesto in che modo quella diffusione è stata raggiunta? In teoria, dopo tutti i ritardi del passato, non c’era fretta di passare al digitale terrestre proprio in quel periodo: solo nel 2005 l’Unione Europea ha legiferato in proposito, rendendo obbligatorio il passaggio in tutta Europa entro il 2012. Ma la volontà da parte del governo di salvare Rete4 spinge a stanziare 210 milioni di euro per l’acquisto dei decoder (molti dei quali vengono distribuiti da una società, la Solari.com Srl, controllata dal fratello del premier, Paolo Berlusconi), permettendo così di raggiungere la soglia minima prevista per il superamento dello studio dell’authority. Ovviamente questo mette in allarme l’Antitrust dell’UE che apre una procedura di infrazione nei confronti dell’Italia per aver fornito aiuti di stato, violando il principio di libera concorrenza. Per giustificare questa improvvisa fretta, viene posta come data di passaggio al DDT in Italia il 2006… Data questa che viene più volte rimandata – ovviamente, essendo un obiettivo impossibile da raggiungere – fino ad arrivare ad oggi.

Decoder

Esaminati i soliti aspetti di “inciucio politico all’italiana”, passiamo alle problematiche di tipo tecnico. E’ il 3 gennaio 1954 quando cominciano le trasmissioni televisive regolari, ad opera della Rai. Due anni dopo il segnale analogico è già molto diffuso, ma per raggiungere la quasi totalità del paese è necessario un grande sforzo negli anni successivi: molte sono le leggende sulla straordinaria bravura dei tecnici Rai nel portare il segnale nelle più sperdute e inaccessibili zone delle valli alpine e della dorsale appenninica. Adesso il problema si ripropone, in quanto gli impianti attuali sono spesso inadeguati per il digitale terrestre: mentre la tecnologia analogica permette la visione, seppur disturbata, anche in presenza di scarso segnale, il segnale digitale deve arrivare perfettamente pulito all’impianto di ricezione, pena la visione a “scatti” o la mancanza totale di visione. Questo porta costi sia per chi distribuisce i contenuti che per i fruitori finali: i primi devono adeguare gli impianti di trasmissione esistenti o costruirne di nuovi in quanto la tecnologia digitale è più “pesante” e ne richiede di più potenti e in numero maggiore, mentre i secondi devono ripuntare o in molti casi sostituire le antenne, eliminare i vecchi filtri e acquistare decoder o nuovi televisori con decoder integrato. Attualmente nemmeno le regioni nelle quali è stato effettuato lo spegnimento totale del segnale analogico (switch-off) sono completamente coperte. Si spera che la situazione migliori entro breve tempo.

antenne

Un altro grave problema del digitale terrestre è che si tratta di una tecnologia comunque limitata dal suo essere trasmessa attraverso le stesse frequenze utilizzate finora da quella analogica: questo vuol dire un maggior numero di canali, ma comunque limitati dallo scarso numero di frequenze utilizzabili. In un confronto con la tecnologia satellitare ad esempio, il digitale terrestre ne esce con le ossa rotte. Facciamo un esempio pratico con un programma molto seguito (purtroppo), come il grande fratello. Sulla piattaforma Sky si ha la possibilità di alternare le diverse inquadrature con la semplice pressione di un pulsante senza pesare troppo, in quanto il numero massimo di canali visualizzabili è enorme. Tramite il digitale terrestre invece, ogni inquadratura occupa lo spazio di un intero canale. Proviamo anche a pensare al futuro della televisione, l’alta definizione (HD): questa occupa una quantità di banda superiore a quella a definizione standard, facendo così diminuire il numero di canali che è possibile veicolare attraverso lo scarso numero di frequenze utilizzabili. Senza contare che la maggior parte dei decoder e televisori compatibili con lo standard digitale terrestre, sopratutto se economici, non hanno il supporto all’HD, e quindi chi in futuro vorrà usufruire di questo tipo di canali, dovrà rimettere mano al portafogli.

Molti canali, ma sono abbastanza?

Riassumento: il DDT è una tecnologia obsoleta, spinta a forza e nel momento sbagliato dall’esecutivo per mantenere una posizione dominante nel mercato dell’informazione e non di certo per ottenere uno sviluppo tecnologico del paese. Inoltre la diffusione del segnale prosegue molto a rilento per problematiche tecniche e di scarso dispiegamento di fondi, e non c’è la certezza che al momento dello spegnimento totale del segnale analogico tutti gli italiani saranno in grado di usufruirne. Ovviamente la trattazione dell’argomento non pretende di essere completa, dato lo scarso spazio a disposizione su di un blog generalista. Molti altri sono gli argomenti che andrebbero trattati o approfonditi: la piattaforma satellitare Tivu’-Sat, che dovrebbe portare gratuitamente (agli abbonati rai) i canali del digitale terrestre nelle zone non coperte dal segnale; gli effetti della legge Gasparri, che hanno portato anche nel DDT lo stesso duopolio Rai – Mediaset presente nella tv analogica, prendendo a schiaffi la necessità di pluralismo dell’informazione che tanto bene farebbe al nostro paese; le alternative presenti e sopratutto future per la diffusione della televisione nel nostro paese, tra cui la WebTv. Sulla televisione digitale terrestre torneremo sicuramente a parlare in futuro, a switch-off totale avvenuto, per tirare le somme e capire se gli attuali timori sono fondati. Se qualcuno degli altri argomenti vi interessa particolarmente e volete sia approfondito, o se avete dubbi e perplessità, non esitate ad utilizzare i commenti.

Cronache semiserie di un sistemista disperato – Capitolo n°1 : L'utonto

Spesso amici e conoscenti mi chiedono cosa faccia esattamente per vivere. A volte provo loro a spiegarlo, ma visto che la parola sistemista è sconosciuta ai più, mi limito a dire di essere un tecnico informatico: loro pensano di aver capito, io mi tolgo dall’impiccio, 0-0 palla al centro. Ma alcuni insistono nel volere i particolari, ed è a loro che è dedicato questo articolo: spero di riuscire a spiegare una volta per tutte in quale inferno mi sono cacciato quando ho scelto questo mestiere.

  • Lui: “Ho un problema con il condizionatore, mi si spegne da solo dopo poco che l’ho acceso”
    Me: “Guarda che non mi occupo di condizionatori…”
    Lui: “Scusa ma non lavori con i computer? Ormai sono tutti pieni di chip questi aggeggi, sono sicuro che puoi fare qualcosa!”
    Me:“…”

Il lavoro del sistemista è semplice, in teoria: ci si occupa dell’infrastruttura informatica di un’azienda facendo in modo che sia sempre funzionante in efficienza, si riparano guasti e malfunzionamenti vari, se ne progettano gli ampliamenti, cose di questo tipo. Ovviamente la complessità può diventare enorme a causa della miriade di tecnologie diverse coinvolte, che generano problematiche di ogni tipo; ma per chi come me è appassionato fin da piccolo di ogni campo dell’informatica è una vera e propria pacchia, e ogni problema da risolvere diventa una sfida personale, rendendo questo lavoro uno dei meno noiosi che ci siano.

  • Lui: “Sai che anche mio figlio lavora nel campo dell’informatica? Magari vi conoscete pure!!”
    Me: “Si, infatti conosco tutti gli informatici d’Italia… Comunque, di cosa si occupa?”
    Lui: “Fa le modifiche alle console, sai Playstation, il Nintendo di Panariello (!), e quella nuova con cui fai ginnastica (!!).”
    Me: “Si, facciamo proprio lo stesso lavoro…”

Se mi piace così tanto, qual è allora il motivo per il quale torno a casa la sera con il vago desiderio di uccidere ogni forma di vita presente nell’universo? Il motivo è lui, l’inesplicabile mistero della natura che prende il nome di Utonto. L’etimologia è semplice, si tratta dell’unione delle parole utente e tonto; ma questo non basta a spiegare l’enorme quantità di danni che una singola persona è in grado di arrecare ad un intero sistema informatico (e ai miei neuroni). Sia chiaro che non considero tutti gli utilizzatori di pc con scarse capacità degli utonti: si può essere degli utenti accorti pur avendo un grado di cultura informatica o persino di intelligenza scarsi, come si può essere degli utonti pur possedendo incredibili capacità intellettive, un paio di lauree ed essendo a capo del settore informatico di una grande azienda.

  • Lui: “Mi hanno regalato una penna usb ma non funziona, dai un’occhiata?”
    Me (mentre guardo allibito la pendrive infilata brutalmente in una porta ethernet): “Scusa, ma non hai notato la forma leggermente diversa e la leggera resistenza che opponeva la porta?”
    Lui: “Ma allora non va lì? Pesavo resistesse un po’ perché era nuova…”

Ma cos’è che distingue un semplice utente da un utonto? Il primo semplicemente accetta i propri limiti di conoscenza, evitando di far danni se non è sicuro di come effettuare una certa operazione, e chiedendo aiuto se ne ha bisogno. Il secondo invece ha assoluta fiducia nelle proprie capacità informatiche, non chiede mai aiuto a nessuno se non all’amico superesperto (che spesso lo aiuta a fare ancora più danni); non legge i messaggi di errore o di avviso e clicca furiosamente su qualsiasi pulsante compaia sullo schermo cancellando dati, accettando di installare virus, chiudendo senza salvare file ai quali stava lavorando da ore; utilizza password difficili da trovare come “password” o la classica “pippo”, che inoltre per non dimenticare scrive su un post-it che appiccica sul monitor; accetta di versare migliaia di euro in conti esteri, convinto da una mail in italiano stentato di doverlo fare per ricevere un’eredità da un misterioso parente sudafricano; in ogni caso, non ammette mai di aver sbagliato.

  • Lui: “Ho un problema con il file, lo apro ma non ci sono le modifiche che ho effettuato ieri!”
    Me: “Evidentemente non l’hai salvato, tranquillo, ora ti recupero la copia del salvataggio automatico.”
    Lui: “Ma io l’ho disattivato, mi rallentava il computer! Il capo mi uccide!! Cosa posso fare???”
    Me: “Iniziare a pregare per la tua anima…”

I metodi che utilizza per condurti alla disperazione sono quelli tipici della guerriglia di resistenza, alla Vietnam per intenderci: crea di continuo piccoli danni, spesso irreparabili, per poi nascondersi facendo finta di niente; quando scoperto si lancia al contrattacco, lamentando fantomatiche mancanze ed errori casuali dei programmi che sta utilizzando; se posto di fronte alla verità, è in grado di giurare sulla propria madre di non aver effettuato nessuna delle azioni delle quali lo si accusa; messo alle strette, arriva a vendere il proprio collega, reo magari di aver urtato il mouse per sbaglio con il gomito, cancellando secondo lui in questo modo gli ultimi 15 anni di email aziendali.

  • Lui: “Non trovo più le email che avevo salvato!! Questo programma di posta fa schifo!!”
    Me: “Senti, mi spieghi cosa ci fa il file di archivio nel cestino?”
    Lui: “E io come faccio a saperlo, non sei tu l’informatico? Scoprilo.”
    Me: “…”

Sistemisti di tutto il mondo e di ogni epoca si sono cimentati con codesti individui malefici capaci di trasformare, con un domanda all’apparenza innocua, una normale giornata di lavoro in 20 ore di straordinario per rimettere a posto i danni da loro provocati. Nel corso degli anni, numerose tecniche sono state sviluppate per resistere ai loro attacchi. Inoltre non pensiate che l’utonto sia il solo ostacolo a frapporsi tra il sistemista e la sua sanità mentale, molte altre sono le difficoltà da superare per portare a casa la pagnotta. Ma di queste e di tante altre cose vi parlerò nei prossimi articoli; per ora, vi saluto (a meno che non siate degli utonti in incognito).

[stextbox id=”custom” float=”false” width=”350″ color=”000000″ ccolor=”000000″ bcolor=”d36f02″ bgcolor=”FAD875″ cbgcolor=”fab837″ image=”http://www.camminandoscalzi.it/50px”%5D

Web Comics

Camminando Scalzi.it darà la possibilità ai fumettisti del web di mettersi in mostra tra le pagine della blogzine. Iniziamo con una striscia di Gabville, autore di “Supporto Buongiorno“, fumetto che si addice alla perfezione ad un articolo come questo !!![/stextbox]

Supporto Buongiorno 01

Breve storia di Google: dal garage al monopolio

Ci troviamo a Stanford, università americana situata in California nel cuore della Silicon Valley, uno dei centri a maggior concentrazione di aziende legate alle tecnologie informatiche del mondo. L’anno è il 1995; Larry Page, 24enne laureato in Ingegneria Informatica, si reca al campus con l’idea di iscriversi al dottorato in informatica. Qui incontra Sergey Brin, 23enne laureato in Matematica e Scienze informatiche, che ha il compito di mostrare  l’università ai visitatori. Nel gennaio dell’anno successivo Larry e Sergey, diventati nel frattempo amici, cominciano a collaborare al progetto “BackRub”, un motore di ricerca che sfrutta il concetto di “back links”: più un sito riceve collegamenti, e quindi citazioni, da altri siti, più è considerato autorevole e quindi innalzato tra i primi risultati della ricerca. Questo meccanismo è alla base dell’algoritmo chiamato “PageRank”, sul quale i due studenti  sviluppano in seguito “Google”, fondando poi nel 1998, in un garage preso in subaffitto a Menlo Park, nei pressi di Stanford, la Google Inc.

Il meccanismo del PageRank chiaramente spiegato

Arriviamo a cavallo del 2000: la superiorità di Google nel settore della ricerca diviene sempre più evidente. I principali attori del mercato di internet, Yahoo, Microsoft e AOL, non hanno funzioni confrontabili, ma tendono a trattenere gli utenti sui propri portali attraverso una serie di servizi quali le news e le e-mail gratuite, rendendoli ottimi canali per pubblicità e marketing. Google all’inizio si rifiuta di inserire pubblicità nelle proprie pagine: secondo la propria filosofia aziendale sintetizzata dal motto “Don’t be evil”, avrebbe potuto portare gli utenti a pensare che i dati elaborati fossero influenzati da interessi di mercato. La strategia di finanziamento perseguita è quella di stabilire partnership con gli altri soggetti del mercato per offrire la propria tecnologia, che porta ad accordi nel 2000 con Yahoo, e nel 2002 con AOL. Questa situazione cambia quando Brin e Page decidono di inserire comunque gli annunci, mantenendoli però distinti dai risultati della ricerca, limitandoli alla parte destra della pagina web, all’interno del riquadro dei link sponsorizzati. Inoltre nel 2003 nasce il servizio AdSense, che permette a siti di ogni dimensione di ottenere guadagni inserendo all’interno delle proprie pagine banner pubblicitari da parte degli inserzionisti di Google.

Il googleplex

Finalmente siamo ai giorni nostri. Grazie ai soldi della pubblicità, Google ha avuto dalla sua nascita ad oggi una vertiginosa espansione: dal garage degli inizi, si è passati al quartier generale di Mountain View in California, il Googleplex; da pochi computer che rispondevano ad appena 10.000 richieste al giorno, agli attuali 36 enormi centri dati sparsi in tutto il mondo, che rispondono ad oltre un miliardo di richieste al giorno, in continua crescita; dalla sola funzione di ricerca, alle decine di servizi odierni, tra cui Gmail, Picasa, Maps e molti altri. Oggi quasi non esiste servizio internet che non abbia un corrispettivo “made in Google”.

Il Monopoly secondo Google

Oramai il modo in cui svolgiamo ogni giorno le nostre attività su internet non può prescindere dai mezzi che questa azienda ci mette a disposizione. Ma quali sono i pericoli nascosti in questa “dipendenza da Google”? Analizziamoli singolarmente:

1. Monopolio delle ricerche: Google è il miglior motore di ricerca oggi disponibile, su questo non c’è dubbio, e dispone del maggior numero di utenti, superiore all’80% del totale. Yahoo al momento è seconda, ma non impensierisce il motore rivale, mentre Microsoft sta provando a contrastarlo con Bing, che dopo la sua nascita con costanti aumenti degli utenti, è recentemente tornata a calare tra le scelte degli internauti. Si spera che l’accordo tra i due eterni secondi possa contrastare questo predominio, che rischia di rendere le ricerche sempre più “Google-centriche”, con un ovvio appiattimento della pluralità dei punti di vista, una delle basi di internet.

2. Monopolio dei servizi: Google ha nel corso degli anni acquisito alcuni tra i più famosi servizi web, tra i quali YouTube, Picasa, reCAPTCHA. Inoltre ne sviluppa di continuo di nuovi, tra i quali Gmail, Google maps, Google reader, che hanno un grande seguito tra gli utenti. Questo provoca molti problemi quando servizi di utilizzo così diffuso hanno difficoltà di tipo tecnico, come sperimentato più volte nell’ultimo periodo dagli utenti  Gmail. Inoltre, cosa succederebbe se in futuro uno o più di questi servizi fossero chiusi? E’ già accaduto in passato, potrebbe ripetersi in futuro, e le alternative non sempre sono in grado di competere.

3. Monopolio pubblicitario: Google, oltre che servizi, ha acquisito o fatto chiudere anche i suoi principali concorrenti in questo campo, tanto da finire diverse volte sotto il mirino dell’antitrust. In un settore come quello di internet, la presenza di un monopolio della pubblicità è quanto mai deleteria: si tratta infatti di una delle pochissime fonti di guadagno, e lasciare che sia un solo soggetto a controllarla rischia di rendere il web, luogo “anarchico” e libero per antonomasia, facilmente controllabile. Dov’è finito il desiderio iniziale dei dirigenti di non spingere i propri utenti a pensare che l’azienda fosse legata ad interessi di mercato?

4. Violazione della privacy: Pochi sanno che Google conserva per lunghi periodi informazioni relative alle ricerche dei propri utenti, in passato addirittura per  18/24 mesi, attualmente ridotti a 9 mesi su pressione europea. Numerosi problemi sono sorti anche relativamente a Street view, che inserendo foto delle varie strade del mondo all’interno di Maps registra ovviamente anche gli ignari passanti. Inoltre chiunque utilizza Gmail sa che il riquadro pubblicitario sfrutta il contenuto delle mail che stiamo leggendo per fornirci pubblicità contestualizzate. Quanto vi fa piacere sapere che i dati sulle vostre abitudini, le vostre email e addirittura la vostra faccia mentre passeggiate per strada, siano in possesso di un’azienda privata?

5. Appiattimento del Web: Questa è una delle conseguenze più evidenti e al tempo stesso difficili da analizzare del predominio Google. Dal web degli inizi, quasi del tutto scevro da ogni forma di pubblicità, si è passato a quello attuale, dove bisogna fare una costante gimcana tra siti che offrono utili informazioni e siti pieni di advertising, nati e sviluppati con il solo scopo di creare un guadagno. Ormai ogni sito, anche il più piccolo, contiene adsense, e in questo non c’è niente di male, ma molti di questi vengono progettati e gestiti soltanto per risultare più graditi agli spider di google, in modo da arrivare ai primi posti delle ricerche e far fruttare di più i propri banner. Probabilmente a questo non c’è rimedio, anche se chi scrive prova a volte un pizzico di nostalgia per quelli che erano gli arbori di internet, dove lo scopo principale era quello di condividere le proprie informazioni con gli altri, e non la ricerca del guadagno ad ogni costo.

Google è ormai diventanta una gigantesca piovra, che avvolge con i suoi mille tentacoli il mondo del web. Sembra un problema da poco, in fondo diffonde servizi utili, ben fatti e gratuiti. Ma al mondo niente è davvero gratuito, e potremmo pagare prima o poi le conseguenze di questa situazione: quando il monopolio si  sarà ulteriormente espanso ed i concorrenti saranno stati eliminati, chi ci dice che la bella filosofia del “Don’t be evil”, che aveva accompagnato la nascita dell’attuale colosso di Mountain View, non venga messa da parte del tutto per mostrarci il suo vero volto?

damqxg6r5w

Microsoft e l’open source: è vero amore?

Negli ultimi anni la strategia Microsoft nei confronti del software open source è stata quantomeno controversa, per non dire quasi del tutto senza senso logico.

Un rapporto difficile

Partiamo dal 2001 quando Steve Ballmer, all’epoca amministratore delegato e attuale presidente dell’azienda, definisce Linux come un “cancro che si attacca, nel senso della proprietà intellettuale, a tutto ciò che tocca”; nel 2007 durante un’intervista, due dirigenti dell’ufficio legale di BigM dichiarano che alcuni tra i maggiori progetti open source, tra cui Linux e Open Office, violano oltre 230 brevetti appartenenti alla società; inoltre all’inizio di quest’anno Microsoft ha fatto causa a TomTom, risolta con un accordo extra-giudiziario, per violazione di brevetti relativi al proprio filesystem FAT32.

Microsot contro TomTom
Eppure negli stessi anni, la società di Redmond strizza l’occhio diverse volte ai sostenitori del codice libero. Nel 2006 e nel 2009 si allea con le società responsabili di due delle principali distribuzioni Linux, Novell e Red Hat, fino a poco tempo prima sue acerrime nemiche; nel 2008 finanzia lo sviluppo del web server Apache, concorrente del proprio IIS; ancora nel 2009 promette di non perseguire legalmente gli sviluppatori che facciano uso di Mono, implementazione open source del proprio .NET framework.

Codeplex

Viste queste evidenti ambiguità, risulta molto difficile giudicare la recente notizia del lancio del progetto CodePlex Foundation, una fondazione no-profit che dovrebbe incentivare lo sviluppo di software a codice aperto, rivolta soprattutto ai produttori di software commerciali. Microsoft ha stanziato per le attività iniziali circa un milione di dollari e redatto un documento che trasferisce copyright e diritti di utilizzo del software prodotto interamente alla fondazione, senza la necessità di versare nulla al programmatore originale. Inoltre sembra che verrà lasciata ampia scelta ai partecipanti riguardo alla licenza con la quale rilasciare il proprio software. A prima vista sembra un’iniziativa del tutto simile alle fondazioni classiche del settore. Il consiglio di amministrazione è al momento composto principalmente da uomini Microsoft, ma tra questi figura Sam Ramji, uno degli impiegati della società più attivi nel sostenere il codice aperto. Inoltre è presente anche Miguel de Icaz, curatore del progetto Mono, e sembra che in futuro verranno ammesse altre importanti personalità del mondo open, oltre a rappresentanti di rilievo del mondo closed-source.

Open Vs Microsoft

Come giudicare quindi questa mossa, alla luce di quanto visto finora? Penso che la strategia del colosso di Redmond sia chiara ormai da anni: cerca di dimostrarsi amica della comunità open, con “regali” e aiuti di vario genere, per poi voltarle improvvisamente le spalle, a suon di battaglie legali per presunti brevetti violati: il più classico dei FUD, che tenta di scoraggiare aziende e utenti finali, intimoriti dalla possibilità di vedersi intentare causa da un’azienda che non ha certo problemi a pagare stuoli di avvocati. Inoltre una delle principali caratteristiche delle fondazioni open source è l’indipendenza: cosa ci dice che il legame tra CodePlex e Microsoft non possa tarpare in futuro le ali ad eventuali progetti nati al suo interno, che possano in qualche modo rivelarsi una minaccia per il business della propria fondatrice? La verità verrà fuori con il tempo; nel frattempo godiamoci questo inaspettato regalo, sperando che non ci si ritorca prima o poi contro.