Editoria e Comunicazione Multiimediale :: Human - Computer Interaction :: Bergamo :: Bg :: Brescia :: Bs Censura | Censorship :: Gardunia | Gaduña :: Lombardia | Lombardy Endogamia | Endogamy :: Cremona | Bergamo | Milano Premios | Prizes Pirateando | Pirating :: Garduña | Gardunia Sadismo | Bullismo :: Sadism | Bullism Presentazione - Corso 2001

F.co Cipolla Ficarra, PhD - HCI Lab :: © Copyright :: Bergamo, Italy (2001) & Barcelona, Spain (1997)

*** Dal 2001 ad oggi, il contenuto di questo portale e il mio operato, viene plagiato sistematicamente dal ladro d'identità, stalker ed ordinario Markus Lazzarone detto "Cremona's Copy & Paste" - libro ***

Revaluing the Strategies and Narrative Techniques of Pinocchio in the Social Media Network, Educational and Job Context

Ladies and Gentlemen: All those who think that I am still affiliated to that university are simply and plainly wrong. After signing the last rubbish contract for University of Bergamo (with the clause of closing all the pending works, that is, the end of career projects, for example, which entailed an additional years of working for free) with the great anthropologist whacko (today, in Milan, mega pseudo expert in globalization, Edgar Morin, cultural heritage, tourism, natural sciences, etc.) and promotor of alcohol consumption, who had to place his brother in law (other "mega pseudo expert" in structural and construction engineering, dykes, avalanches, html, podcasting, special education for mentally handicapped, digital storytelling, human beings, advanced visual interfaces, vocational guidance, traineeship and work placement ... and an infinite etcetera ... all with only a Pisa B.A certificate –a sickening example of the Lombardian Gardunia or Garduña). He was so "versed in websites", for example, that instead of making the webs for his brother in law, he fetched a young psychopathic slave (today, a member of the Catalan-Lombardian Garduña) and all his buddies. Sadistically and illegally, the dean whacko locked in his office all the professors who dissented from his variegated shenanigans and started to yell like a schizophrenic devil (e.g. September, 2003 –a birthday gift between brothers in law). In the meantime, since it is allegedly such paradisiacal and religious place, where everything happens, but in front of earthly justice, nothing happens, several exceptional and honest professionals, of a middle and third age, accelerated their no return trip to the graveyard whether, in a natural way or suicide. As I said at the start, closing all the pending works, I haven’t set a foot again in that place, not even to gather my personal belongings. In resume, the power of the enlightening of ‘communion and slavery’ is such that the sentence attributed to Miguel de Cervantes Saavedra –in fact it isn’t to be found in his book The Ingenious Gentleman Don Quixote of La Mancha: "We’ve bumped against the church, Sancho" ... is nothing compared to it. They are destructive by nature and protected by the parochialism of the local and global Garduña. No human being has ever been born who can beat them and their underlings. In short, with these characters there is only one keyword for the next generation: Emigration. In memoriam of an excellent colleague and computer lab technician –died by suicide. Amen!


UNITÀ 1 LE TECNOLOGIE DELLA RETE 1. LA STORIA DELLA RETE: ALCUNI CENNI 1.1. LA STORIA DI INTERNET: ARPA Le origini di Internet risalgono alla fine degli anni’50, quando, in epoca di guerra fredda, la messa in orbita del primo satellite artificiale (lo Sputnik) da parte dell’Unione Sovietica, provocò non poche inquietudini in ambito occidentale, in particolare negli Stati Uniti. In questo clima di timore per un possibile attacco nucleare, la contesa tra Stati Uniti e Unione Sovietica per la supremazia scientifica e tecnologica, portò gli USA alla creazione di un’agenzia per la ricerca e lo sviluppo scientifico: l’ARPA (Advanced Research Projects Agency). Inizialmente, questa agenzia si occupò di ricerca in ambito aerospaziale, visto che il motivo principale della sua creazione fu il lancio della Sputnik. Però, pochi mesi dopo, con la creazione della NASA, tutti i programmi spaziali vennero trasferiti dall’ARPA alla NASA. Di conseguenza, per poter continuare ad esistere, era necessario che l’ARPA trovasse un nuovo ambito di lavoro; fu così che questa agenzia cominciò ad occuparsi dello studio dei calcolatori, un campo fino ad allora poco esplorato; così facendo, essa si staccò completamente da quelle che erano le sue motivazioni originarie, ovvero motivazioni di tipo militare. A questo punto è necessaria una precisazione: spesso si dice che Internet sia nata come rete militare; questo è un mito da sfatare, anche se ha comunque un fondo di verità. In effetti, si è vero che l’impulso iniziale allo sviluppo di una rete di comunicazione tra computer fisicamente distanti venne dall’ambiente militare, è pur vero che le varie innovazioni che hanno portato la rete ad essere come noi la conosciamo oggi, sono nate all’interno di gruppi di ricerca non legati all’ambito militare. A questo proposito è significativa un’intervista rilasciata nel ’95 da Charles Herzfeld direttore dell’ARPa negli anni ’60, a Scientific American, in cui egli parla di ARPAnet, una rete sperimentale di computer creata nel 1969 dall’agenzia ARPA: “… ARPAnet non nacque per assicurare le comunicazioni militari in caso di guerra nucleare – questa è un’impressione sbagliata piuttosto comune – ma piuttosto per collegare computer e ricercatori delle università, assistendoli nel condurre ricerche comuni sui computer e sulle reti di comunicazione, e per usare questi computer nelle ricerche di base. Certamente eravamo consapevoli delle applicazioni potenziali di ARPAnet per la sicurezza nazionale, ma gli sforzi per usare tale tecnologia a questo fine vennero solo molto dopo”. La “leggenda” di una rete militare costruita con lo scopo di mettere gli Stati Uniti in condizioni di affrontare una guerra nucleare, fu alimentata da un articolo apparso sulla rivista Time, che fu poi smentito da una lettera, mai pubblicata, inviata alla rivista da Robert Taylor, capo di uno degli uffici ARPA. Perciò Internet, più che una conquista militare, è stata una conquista umano e culturale di un gruppo di persone che hanno creduto fino in fondo nel loro progetto di creare una rete che permettesse la condivisone di risorse e lo scambio di informazioni. 1.2. LA STORIA DI INTERNET: L’ARPA E LA RAND CORPORATION L’ARPA ebbe il pregio di riunire alcuni tra gli scienziati più brillanti d’America, ai quali, nel 1962, si aggiunse J.C.R. Licklider, che rimase molto poco all’ARPA, ma che lasciò un segno molto profondo; in effetti, appena arrivato, progettò la creazione di una rete di collegamenti tra i principali centri di ricerca e istituzioni universitarie degli Stati Unite. Oltre all’ARPA, esisteva un altro centro legato alla ricerca militare, la RAND Corporation, che nel 1959 assunse Paul Baran, un ingegnere che si occupò della risoluzione di un problema di ordine militare, ossia, come mantenere attiva una rete di comunicazioni anche in caso di attacco nucleare. Baran stabilì che una rete sicura doveva possedere due caratteristiche: 1. Decentramento, ovvero la mancanza di un unico, ben preciso centro di controllo e gestione, che sarebbe sicuramente stato il bersaglio di attacchi nemici in caso di guerra. Il decentramento avrebbe permesso al messaggio di compiere vari percorsi per giungere a destinazione, perciò se un nodo della rete fosse stato distrutto, il messaggio avrebbe comunque potuto raggiungere la destinazione passando per altri nodi. 2. Suddivisione del messaggio da inviare in più parti, che, secondo Baran avrebbero potuto viaggiare separatamente all’interno della rete, e poi ricomporsi una volta giunte a destinazione. Purtroppo queste idee di Baran Trovarono una forte opposizione all’interno della comunità scientifica; perciò nel 1965 egli rinunciò al suo progetto per dedicarsi ad altri studi. Entrambe le caratteristiche individuate da Baran saranno poi alla base del funzionamento di Internet. 1.3. BARAN E DAVIES: L’AMERICA E L’INGHILTERRA Negli anni ’60, quando Baran rinunciò al suo progetto di rete distribuita, Donald Watts Davies, un fisico che all’epoca lavorava per il National Physical Laboratory in Inghilterra, giunse a conclusioni molto simili a quelle di Baran, anche se non era a conoscenza degli studi fatti da quest’ultimo. Nel 1966, Davies organizzò una conferenza con lo scopo di rendere pubblico il suo studio riguardante una rete distribuita, con caratteristiche simili a quelle individuate da Baran. In effetti, anche Davies parlò della necessità di suddividere il messaggio in più parti, da lui denominate “pacchetti” (packets); e il sistema di comunicazione che si basava su questo principio fu da lui chiamato “commutazione di pacchetto” (packet switching). Alla fine della conferenza, Davies fu avvicinato da un americano, impiegato presso il ministero della difesa USA, che gli parlò degli studi studi effettuati da Baran, di cui Davies non era a conoscenza. Tutte queste idee verranno poi riprese e porteranno nel 1969 alla creazione di ARPAnet, l’antenata di Internet. 1.4. LA NASCITA DI ARPANET Nel 1966, Robert Taylor, che aveva conosciuto Licklider qualche anno prima, divenne capo di uno degli uffici ARPA. Egli si rese ben presto conto di quanto fosse assurdo che i computer dei vari uffici dell’ARPA non potessero comunicare tra loro e condividere le risorse. Perciò riprese l’idea di Licklider di far interagire i computer in una rete, e riuscì ad ottenere un finanziamento per questo progetto da Charles Herzfeld, uno dei direttori dell’ARPA. Taylor chiamò alla sovrintendenza del progetto Larry Roberts, un giovane informatico; dopo aver assistito ad una conferenza in cui si parlava delle idee di Davies (riguardo la commutazione di pacchetto) e di Baran, Roberts decise che la rete dell’ARPA avrebbe dovuto essere una rete a commutazione di pacchetto. Inoltre, egli tenne conto dell’importante contributo di Wesley Clark, che propose di non collegare direttamente i computer tra loro, visto che modelli di computer diversi non erano in grado di comunicare l’uno con l’altro. L’idea di Clark era quella di creare una sottorete di computer dedicati alla gestione del traffico che parlassero tutti lo stesso linguaggio (questo tipo di computer fu denominato IMP, ovvero Interface Message Processor). Ogni nodo della rete sarebbe stato collegato a un IMP della sottorete, e così esso avrebbe dovuto imparare solo il linguaggio della sottorete, anziché i linguaggi di tutti gli altri nodi a cui avrebbe dovuto essere connesso. Le risorse e il finanziamento dell’ARPA, i risultati degli studi di Davies e Baran, l’idea di Clark per riso0lvere i problemi di incomunicabilità tra computer, l’iniziativa di Roberts; tutto ciò fu determinante per la creazione della rete ARPAnet, che iniziò nel 1969. 1.4.1. LA REALIZZAZIONE DEL PROGETTO ARPANET Nel 1968, Roberts rilasciò un documento in cui venivano descritte le caratteristiche che dovevano avere gli IMP, e questo documento venne inviato alle varie compagnie interessate a costruire questo tipo di computer. Parecchie compagnie, tra cui anche l’IBM, sostennero l’impossibilità di costruire una rete del genere; altre, invece, si dichiararono disposte a realizzare il progetto degli IMP; tra questi ultime c’era la BBN (Bolt Beranek and Newman), una piccola ditta di Cambridge, alla quale fu affidato l’appalto. Intanto, nelle università che sarebbero state collegate alla rete ARPAnet, erano in corso vari lavori di adattamento che avrebbero permesso ai computer universitari di collegarsi agli IMP. Nel settembre del 1969, il primo IMP fu consegnato alla University of California, “Los Angeles” (UCLA), e fu collegato all’elaboratore Sigma 7. Il mese seguente fu installato il secondo IMP, allo Stanfor Research Institute (SRI) in California, dove fu collegato a un SDS 940. In seguito vennero collegati in rete anche i computer dell’Università di Santa Barbara (UCSB) e dell’Università dello Utah. 1.5. LA STORIA DEL WEB Le origini del World Wide Web risalgono al 1990, quando Tim Berners-Lee, un ricercatore inglese che all’epoca lavorava per il CERN di Ginevra (il noto centro di ricerca sulla struttura della materia) presentò al preside del centro una relazione intitolata “World Wide Web: Proposal for a Hypertext Project”. In realtà, gli studi che portarono a redigere questo documento iniziarono negli anni’80. In quegli anni, Berners-Lee cominciò a lavorare a un progetto chiamato “Enquire”, con lo scopo di creare “un sistema ipermediale distribuito, ovvero un oggetto in grado di gestire in maniera organica documenti sotto forma di testo, suono ed altro localizzati in computer geograficamente distanti nel mondo”. Nel 1989, il progetto denominato “World Wide Web: Proposal for a Hypertext Project” era pronto, e Berners-Lee lo presentò ai dirigenti del CERN, ma ottenne solo rifiuti. La sola persona che si rese conto delle enormi potenzialità di questo progetto fu Cailliau, un ingegnere del CERN. I due decisero di riscrivere parte del progetto, che nel 1990 fu ripresentato e approvato. Berners-Lee cominciò allora a lavorare alla revisione del progetto, stabilendone le specifiche ufficiali: infatti ideò un nuovo protocollo, chiamato HTTP (Hyper Text Transfer Protocol). Però al CERN continuava a regnare un certo scetticismo riguardo alla realizzazione di questo progetto; per questo motivo, Berners-Lee decise di mettere a disposizione gratuitamente sulla rete il software da lui ideato, e le risposte non tardarono ad arrivare, in particolare dall’America, più aperta a questa idea. Nel 1993 il progetto di Berners-Lee ricevette un impulso decisivo al suo sviluppo dal National Center for Supercomputing Applications (NCSA) dell’Illinois; infatti Marc Andressen ed Eric Bina (oggi noti per aver fondato Netscape nel 1994), che all’epoca lavoravano per questo centro, basandosi sui lavori di Berners-Lee, svilupparono un’interfaccia grafica di facile utilizzo, chiamato “Mosaic”, che permetteva di accedere ai documenti presente sul Web. A Mosaic sono seguite altre interfacce grafiche, che hanno migliorato le prestazioni del Web, rendendo il suo utilizzo sempre più semplice. Ciò ha contribuito all’enorme diffusione che ha interessato e sta interessando tutt’oggi il Web. Le caratteristiche che hanno fatto del Web una vera e propria rivoluzione in ambito telematico sono le seguente: In realtà, gli studi che portarono a redigere questo documento iniziarono negli anni’80. In quegli anni, Berners-Lee cominciò a lavorare a un progetto chiamato “Enquire”, con lo scopo di creare “un sistema ipermediale distribuito, ovvero un oggetto in grado di gestire in maniera organica documenti sotto forma di testo, suono ed altro localizzati in computer geograficamente distanti nel mondo”. La sua diffusione planetaria. La facilità di utilizzo delle interfacce. La sua organizzazione ipertestuale. La facilità di pubblicare documenti nel Web. La possibilità di ricevere e trasmettere informazioni multimediali. 1.6. EVOLUZIONE DEI DIVERSI MEDIA Cosa? Chi? Quando? Trasmissione telegrafica tra EE.UU. e Europa (Marconi 1901) Appaiono i primi disegni umoristici di animazione in 2D (Blackton 1907) Cominciano i primi esperimenti della TV in Russia (Boris Rosing 1907) Animazione di una striscia comica apparsa in un giornale di New York. Personaggio Little Neno (Winsor McCay 1911) Cominciano gli esperimenti di sincronizzazione di suono e immagine al cinema (Gaumont 1912) Per la prima volta si usa il termine “cartoni animati”. Opera: Newlyweds (Emil Cohl 1913) I primi effetti di camera vengono scoperti: azione al contrario, movimento lento e veloce, dissolvenza, movimento, ecc. (1913) Debutto dei primi cartoni animati a colori: il debutto di Thomas Cat (John Bray 1920) Incorporazione della tecnica del key frame (Disney 1926) Presentazione della teoria del montaggio. Opera: La corazzata Potemkin (Sergei Eisenstein 1926) Viene inventato il Cinemascope. Il suo uso verrà generalizzato nel 1953 (Chretien 1928) Introduzione della pellicola da 16 mm, Kodakcolor (Eastman Kodak 1928) Viene stabilita la prima stazione TV a Washington DC, W3XK (Jenkins 1928) Felix il gatto è il primo cartone animato che appare in TV (NBC) a New York (1928) Dinner Time, il primo cartone animato con suono, voce e musica (Paul Terry 1928) Emissione dei primi film della Disney al Colony Theater di New York (1928) Uso di un sistema di colorazione foto-meccanica nell’opera del Re del Jazz (Walter Lantz 1930) Uso del Technicolor nelle animazioni. “Flowers and Trees” riceve il primo Oscar (Disney 1932) Kodak introduce la pellicola da 8 mm (1932) Nascita della prima catena di TV educativa: W9XL nell’Università dell’Iowa (1932) “I tre maialini” è il primo cartone animato disegnato con story board (Disney 1933) “Fantasia” è il film pioniere dell’uso del suono stereo (Disney 1941) Kodak brevetta il negativo a colori (1942) Primo modello di una calcolatrice (binaria) capace di risolvere equazioni lineari. I risultati vengono depositati e poi emessi su biglietti perforati (Atanasoff e Berry 1942) Appare il libro First Draft of Report on the EDVAC. Descrizione logica dell’organizzazione del computer, ad es.: digitale, sistema binario (John Von Newman 1945) Appare Il libro “The Way We Think”, dove si parla di sistemi interattivi (Vannevar Bush 1945) CBS sviluppa un sistema di TV color usando i tre colori rosso verde e blu (1946) Pubblicazione “A Mathematical Theory of Communication” per comprendere il processo della comunicazione (Claude Shannon 1948) Introduzione della nozione di TV interattiva (Winky Dink 1950) AT&T installa la prima rete per TV via cavo (1951) Iniziano i progetti di un sistema interattivo di CAD/CAM su un computer IBM (Gorge Price 1956) Viene coniato il termine Intelligenza artificiale (John McCarthy 1956) IBM brevetta la unità di disco (1957) Calcomp in California introduce il plotter (1959) L’azienda DEC commercializza il primo computer (PDP-1) con monitor e tastiera (1960) Utilizzazione di un processo di xerografia nel film “La carica Disney dei 101” (1961) SpaceWar! Nel computer PDP-1 è forse il primo videogioco (Steve Russell 1962) Coniazione del termine Ipertesto (Ted Nelson 1965) Compare il BASIC (Tom Kurtz y John Kemeny 1969) Intel introduce il chip (1970) A Tokio cominciano gli esperimenti della HDTV (1970) Sviluppo del linguaggio di animazione Animator al MIT (1971) Il videogioco Pong permette di fondare la ditta Atari Nolan Bushnell (1973) Sincronizzazione della voce col movimento della faccia nelle animazioni generate col computer (Fred Parke 1974) La ACM realizza il primo SIGGRAPH (Special interest group on computer graphics) 1974 Intel presenta il processore 8008 (memoria, ALU, e la unità di I/O in un solo chip, 1974) Sony e Panasonic introducono il formato VHS e Beta per le videocassette domestiche 1976 Prima mostra internazionale di Computer art a New York 1976 Invenzione del Data Glove Dan Sandin 1976 Disegno e creazione del primo Apple I S. Jobs e S. Wozniak 1976 Alcune compagnie cominciano i loro esperimenti con la fibra ottica 1977 Fondazione Microsoft Bill Gates e Paul Allen (1977) Star Wars è il primo film in cui si inserisce una piccola animazione (Larry Cuba, 1977) Viene introdotto il Wordstar sotto il sistema operativo CP/M e più tardi il DOS (1978) Esperimenti coi primi Telefoni cellulari in Giappone e a Chicago 1979 Creazione del primo computer portatile Osborne 1981 Pubblicazione di Literary Machines, si prosegue sul concetto di Ipertesto (Ted Nelson 1981) Viene fondata Autodesk col suo primo prodotto: AutoCAD 1982 Commercializzazione dei primi servizi di E-mail in 25 città 1982 Introdotto il videogioco Pac Man 1982 Tron, primo film che usa l’animazione 3D Disney 1982 Apple introduce il Macintosh e comincia a passare attorno all’informatica grafica col suo programma MacPaint (1984) William Gibson conia il termine “cyberspazio” nella sua opera Neuromancer (1984) MIDI (Musical Instrument Digitala Interface)comincia a svilupparsi (1984) Nintendo introduce la nuova generazione di videogiochi (collegati al televisore) 1986 Prima dimostrazione pubblica della realtà virtuale in Siggraph 1988 Tin Toy vince il primo Oscar nella categoria di cortometraggi Pixar di animazione (1989) Prima dimostrazione pubblica di multimedia in Siggraph 1989 Si commercializza Windows 3.0 per MS/DOS 1990 IBM, Motorola e Apple si uniscono per creare il PowerPC 1991 Il virus Michelangelo provoca grande aspettativa 1992 Mosaic viene creato da studenti dell’Università dell’Illinois come interfaccia grafica per navigare in Internet (1993) Netscape è il primo browser che ottiene una grande approvazione dagli utenti di Internet, 1994 Toy Story è il primo film creato interamente al computer 1995 Il boom Internet (E-learning, E-commerce, Portali, ecc.) 1996 Microsoft introduce il sistema operativo Windows ’98 (obiettivo potenziare la multimedia) 1998 Diffusione della domotica via Internet 1999 Nuovi modelli di Apple (iMac): l’era trasparenza 2000 Computer con u cuore di molecole (Pc velocissimi e superpotenti che lavorano con nanotubi di carbonio, e avranno il dna (2001). A.I. “Artificial Intelligence” è il film di Steven Spielberg, idea di Stanley Kubrik autore e direttore di Odissea nello Spazio (2001) Crisi nel settore Internet e nella informazione 2001 Lancio della Seconda era Internet 2002) L’E-commerce in Europa supera l’America (2003) UNITÀ 1 LE TECNOLOGIE DELLA RETE 2. FONDAMENTI DELLA COMUNICAZIONE DEI DATI 2.1. INTRODUZIONE Il nuovo millennio si apre sotto il segno della comunicazione, intesa nei suoi aspetti più innovativi in quanto portatori di una rivoluzione dei modelli di relazione tra persone, i cui effetti vanno molto al di là della crescita nel mercato dell’Information & Communications Technology (ICT). I nuovi paradigmi di comunicazione legati alla connettività globale, sommati alla continua crescita della domanda di servizi di mobilità (basta pensare la realtà della telefonia mobile dieci anni fa), allargano le occasioni di contatto ma anche le modalità e sopratutto la “qualità” delle relazioni, rendendo attuale il disegno della Società dell’Informazione. Questa Società dell’Informazione funziona come un sistema che sulla disponibilità e lo scambio della conoscenza fonda i presupposti del proprio sviluppo futuro. Certamente che questo processo è destinato a consolidarsi a breve-medio termine grazie alla convergenza attesa dei servizi on line e mobile su un’unica piattaforma integrata, su cui si svilupperà l’accesso universale ai servizi di comunicazione. L’evoluzione quindi non è solo tecnologica ed economica: emergono nuove professioni (ad esempio, al interno della “corretta” gestione di un sito oggi c’è il Web Master, Web Content, Web Designer, ecc., ecc.), si allargano le opportunità imprenditoriale (piccole e mediane aziende/industrie di prodotti e servizi multimediali), la categorie di utenti sinora poco attratti dal mondo ICT salgono alla ribalta (si peni allo sviluppo del mercato consumer di PC multimediali). Tutto questo grazie ad un’offerta capace di indirizzare più efficacemente i bisogni e la capacità di spesa di questi segmenti per il gran pubblico. Ad attrarre questi utenti non è solo il fattore pubblicità, ma anche lo sviluppo di applicazioni on line e off line, dove l’informazione / dato è il pilastro basilare. Che cosa è un dato dal punto di vista della teoria della comunicazione? 2.2. I DATI E LA COMUNICAZIONE Per comprendere uno dei modi di presentare gli elementi minimi della comunicazione, è possibile guardare nella seguente rappresentazione schematica: I disturbi, rumore o interferenze sono eventi indesiderati, solitamente esterni al processo. Solitamente è proprio il canale ad essere colpito dal rumore. Allora possiamo fare due importanti osservazioni: • Innanzitutto le prestazioni di un sistema di comunicazione dipendono strettamente dalle caratteristiche della sorgente, del canale, e del destinatario; • Poi, affinché la comunicazione avvenga correttamente, è indispensabile che il messaggio sia posto in una forma comprensibile dai vari elementi. Esempio “classico” In un processo di comunicazione telefonica (telefono fisso) tra due persone, possiamo distinguere: La persona che parla (sorgente). Il microfono sulla cornetta che trasforma le vibrazioni della voce in un segnale elettrico (trasmettitore). Il cavo telefonico, lungo cui viaggia il segnale (canale). L’altoparlante sulla cornetta telefonica che trasforma i segnali elettrici in vibrazioni sonore percepibili dall’orecchio umano (ricevitore). La persona che ascolta (destinatario). I disturbi presenti sulla linea telefonica, anch’essi sotto forma di segnali elettrici, che coprono o distorcono i segnali trasmessi, producendo interferenze (rumore). Allora tutto questo ci pone di fronte a due aspetti fondamentali per la teoria della comunicazione: Il primo è legato alla possibilità di “misurare” l’informazione mentre il secondo riguarda la necessità di “codificare” il messaggio in maniera opportuna. Avendo stabilito quali sono gli elementi comuni a ogni processo di comunicazione, vedremo quali caratteristiche essi dovranno avere per potere realizzare le reti di scambio di informazioni viste. Parliamo di comunicazione dei dati perché sono proprio i dati che costituiscono il messaggio, ossia, l’insieme delle informazioni da trasmettere. Se il nostro riferimento è il computer, dobbiamo considerare i dati in relazione al modo in cui essi vengono rappresentate all’interno del computer. 2.3. DATI Una maniera per definire brevemente un dato nella teoria della comunicazione è questa: “Un dato è una sequenza ordinata di bit”. Con questa definizione se prescinde dal significato del messaggio. Cioè, dal punto di vista della teoria della comunicazione non interessa sapere se i dati trasmessi rappresentano le istruzione di un programma, o il file di una tabella, o un documento Word, pero dal punto di vista del calcolatore è fondamentale per un corretta elaborazione. Un classico esempio può essere sapere il tipo di dato all’interno di un database per un libro: CODICE; TITOLO; AUTORE; LINGUA; ANNO; PUBBLICAZIONE … num., alfanum., alfanum., alfanum., num., alfanum. Un dato può essere informazione, ma un’informazione può essere un nuovo dato se c’è previamente il feedback o retro alimentazione del processo di comunicazione. 2.4. MISURARE LA COMUNICAZIONE DEI DATI In ogni processo di comunicazione, il messaggio può essere valutato in base a una determinata caratteristica o a un particolare punto di vista: Quando ci apprestiamo a guardare un telegiornale alla TV, ci aspettiamo per esempio di ricevere “buone” notizie o una “buona” qualità sonoro quando si guarda un film nel cinema. In questi casi, giudicheremo le informazioni ricevute buone o cattive a seconda che siamo confermate o meno le nostre aspettative: diamo allora una valutazione qualitativa del messaggio. In ambito matematico/informatico questo tipo di valutazione non riveste particolarmente interesse: al fine di progettare al meglio un sistema di comunicazione è sicuramente più importante valutare il messaggio da un punto di vista quantitativo. Certamente, ecco che il problema è sempre misurare la quantità di informazione relativa al messaggio generato da una sorgente e di fissarne una unità di misura (nel nostro caso, attributi di qualità per l’editoria multimediale). Quando si fa la previsione del tempo di domani, il meteorologo ricava utili informazione dalla situazione meteorologica odierna, o dalla sua evoluzione negli ultimi giorni. Tali informazioni ridurranno in certo senso l’incertezza legata all’evento che ci interessa. Ecco, allora che c’è un legame che intercorre tra la misura dell’informazione contenuta in un messaggio e l’incertezza che esso elimina. E allo stesso modo si può affermare che: “la quantità d’informazione relativa a un evento è strettamente legata alla probabilità che l’evento ha di verificarsi”. Per concludere, c’è un esempio classico su questo argomento: Quando siamo fermi a un semaforo posizionato sul “giallo” sappiamo con certezza che successivamente si posizionerà sul “rosso”. L’uscita dell’evento “rosso” non reca con sé nessuna informazione rilevante. UNITÀ 1 LE TECNOLOGIE DELLA RETE 3. IL MESSAGGIO BINARIO E LA SUA RAPPRESENTAZIONE 3.1. INTRODUZIONE Risulta molto importante nei processi di comunicazione la ricerca e la progettazione del codice e cioè, un “metodo” che consenta di rappresentare l’insieme dei simboli con cui è possibile formare i messaggi della sorgente (alfabeto della sorgente) mediante un altro insieme di simboli (alfabeto codice) più facilmente trasmettibili. I nuovi paradigmi di comunicazione legati alla connettività globale, sommati alla continua crescita della domanda di servizi di mobilità (basta pensare la realtà della telefonia mobile dieci anni fa), allargano le occasioni di contatto ma anche le modalità e sopratutto la “qualità” delle relazioni, rendendo attuale il disegno della Società dell’Informazione. Questa Società dell’Informazione funziona come un sistema che sulla disponibilità e lo scambio della conoscenza fonda i presupposti del proprio sviluppo futuro. Certamente che questo processo è destinato a consolidarsi a breve-medio termine grazie alla convergenza attesa dei servizi on line e mobile su un’unica piattaforma integrata, su cui si svilupperà l’accesso universale ai servizi di comunicazione. Tutto questo trova una soluzione con la teoria dei codice. Questa teoria cerca di eliminare completamente gli errori introdotti dal rumore e quella di mantenere alta la velocità di trasmissione. Ecco come sono nati codici che permettono, a scapito di un aumento della ridondanza, di individuare a livello di destinazione l’eventuale presenza di un errore nel messaggio (codici rilevatori – error detecting codes), o addirittura di rilevare errori e correggerli automaticamente (codici correttori – error correcting codes). Una situazione più semplice è quella in cui l’alfabeto della sorgente e quello del codice sono equipollenti, ossia, formati dallo stesso numero di simboli, poiché in tal caso è sufficiente associare a ogni elemento del primo alfabeto, uno del secondo. Ma nella comunicazione umana questo non è cosi di facile. Dal punto di vista scritto e d’accordo a Saussure un segno è composto da un significante e un significato. Ad esempio, per studiare il significato dell’annuncio pubblicitario su un giornale digitale, è necessario partire dall’interrelazione dei differenti segni, parole o immagini che ne costituiscono la manifestazione. Altro aspetto che può complicare di più questa situazione è la fonetica, come la differenza della “c”, “s” e “z” in Spagna. Invece matematica, geometria, chimica … (scienze formali) risulta più facile trovare una equipollenza. Ad esempio, l’alfabeto greco per la geometria: 3.2. I CODICI In ogni codice dovremo riconoscere i seguenti insieme: I Simboli Le Parole Le Regole A seconda degli elementi rappresentabili tramite questi insiemi, saremo in grado di suddividere i codici in codici “numeri” e codici “alfanumerici”. A titolo esemplificativo, proviamo a considerare due codici: La lingua italiana. Il sistema di numerazione decimale. Nel primo caso i simboli sono le lettere dell’alfabeto più i segni di punteggiatura, le parole sono le sequenze di simboli che hanno senso compiuto, e le regole sono quello grammaticali e sintattiche. Nel secondo caso, invece, i simboli sono le cifre da 0 a 9, le parole sono i numeri componibili con quelle cifre e le regole sono quelle della comune aritmetica. A titolo riassuntivo, possiamo dire che in ogni codice: I Simboli sono tutti gli elementi utilizzati; Le Parole sono sequenze di simboli; Le Regole sono le leggi che legano simboli e parole. 3.3. LA COMUNICAZIONE DIGITALE NELLA HUMAN-COMPUTER INTERACTION: SISTEMA BINARIO Il problema, invece, diviene più complesso nel caso in cui il numero dei simboli dell’alfabeto della sorgente e dell’alfabeto codice sono diversi, come accade nella comunicazione / interazione tra uomo e computer, in cui tutti i caratteri del nostro lessico devono essere codificati attraverso due soli simboli: zero e uno (codice binario) per generare alla fine il messaggio binario. All’interno del calcolatore vengono usati per memorizzare le informazioni dei dispositivi a due stati (1 e 0), per utilizzare i quali è necessario che un qualsiasi simbolo della sorgente venga codificato in una sequenza di bit. I principali fattori che hanno influenzato questa scelta, a prima vista non molto conveniente, sono stati: 1. Efficienza: i calcoli con numeri binari vengono effettuati da una macchina più rapidamente. 2. Economicità: la semplicità di funzionamento dei dispositivi a due stati induce un minor costo. 3. Affidabilità: l’utilizzo di soli due livelli discreti garantisce la massima separazione tra gli stati e riduce al minimo la possibilità che un qualsiasi inconveniente porti il sistema a interpretare uno stato al posto di un altro. 3.4. STRUTTURE FISICHE DELL’INFORMAZIONE DIGITALE Tra le varie strutture d’informazione utilizzabili c’è una che riveste particolare importanza: l’unità di informazione che può essere trasferita con una sola operazione tra i componenti interni del calcolatore, detta parola o word. Questa struttura molto spesso risulta coincidere di un’altra unità d’informazione di lunghezza fissa: il byte (8 bit), che viene anche usato come unità di misura per indicare la capacità di dispositivi o supporti di memorizzazione utilizzando opportuni multipli: Kbyte = 1.024 byte Megabyte = 1024 x 1024 byte (1.048.576 byte) aprossimatamente 1.000.000 byte Gigabyte aprossimatamente 1.000 Megabyte Terabyte aprossimatamente 1.000 Gigabyte Questa informazione è “utilissima”, ad esempio per mandare e ricevere dati “on-line”. Un generico sistema di numerazione è costituito da: Un insieme finito di simboli (cifre); Un insieme di regole che permettono di associare a un valore numerico una ben precisa configurazione di cifre e viceversa; Un insieme di algoritmi che consentono di eseguire le operazioni fondamentali all’interno dell’insieme numerico rappresentato. Nei sistemi di numerazione posizionali alcune delle regole che stanno alla base del conteggio sono le seguenti: le cifre sono “ordinate”, in modo che ognuna rappresenti una unità in più rispetto alla precedente. Ad esempio, nel sistema decimale le cifre sono disposte nel seguente ordine: 0,1,2,3,4,5,6,7,8,9; le cifre hanno “valore posizionale”, nel senso che il loro valore dipende dalla posizione che esse occupano nella configurazione rappresentante il numero: Nel sistema decimale la cifra 3 vale trenta nel numero 430 e trentamila nel numero 30111In particolare, il sistema di numerazione binario è un sistema posizionale a base 2, i cui alfabeto è formato da due soli simboli: 0 e 1. 3.5. L’ULTIMO CODICE NATO ALL’INTERNO DEL WEB: FACCINE È nato un ricco dizionario di termini simbolici, detti «emoticons» (letteralmente «icone emotive») o «smilies» (faccine). Il dizionario continua a crescere, con simboli sempre più sofisticati (animazione 2D e 3D) per esprimere tutti i sentimenti nelle loro più sofisticate sfumature. E ci sono siti in rete dove si possono aggiungere le proprie invenzioni: Digilander.iol.it/gar1/smileys Aessnet.org/forum/supermercato Windweaver.com/emoticon In realtà, le faccine che si usano per davvero sono alla fine sempre le stesse e si ottengono digitando pochi simboli sulla tastiera del computer, che letti di traverso ponendo il lato di sinistra in alto, disegnano espressioni del viso: i due punti sono gli occhi, il trattino è il naso, la parentesi è la bocca. Quindi: :-) Contento :-( Triste ;-) Strizzatina d’occhi (ironica) :-o Shock/sorpresa Tra i top, c’è |-) Faccina che dorme 8-) Faccina con gli occhiali :-| Faccina annoiata ;-( Faccina che piange [] Abbraccio :-D Risata Oggi, l’ultima moda è il salto alla telefonia mobile, però sono più complesse o complete: oo Un raggio di luce nel messaggio. (:-: Messaggio indicante che una persona è molto triste. +<:-oe Messaggio a proposito di frati o suore. =0== Messaggio a proposito di un Messicano su una ferrovia. =t== Messaggio a proposito di un messicano su un treno. <<<<(:-) Messaggio da un venditore ambulante. (:>-< Messaggio da un ladro: Occhio!!!. :-{ Conte Dracula. =|:-)= Zio Sam. :~i Fumando. :~j Fumando e sorridendo. :/i Vietato fumare. :-> Sono VERAMENTE felice. (-_-) Sorridere sotto i baffi. 2B|^2B Messaggio a proposito di Shakespeare. #:-) Sorriso da qualcuno con i capelli arruffati. UNITÀ 1 LE TECNOLOGIE DELLA RETE 4. COMPONENTI PRINCIPALI DELLA RETE Oggi, il modo di comunicare più comune e sviluppato tra gli utenti è quello che sfrutta le linee telefoniche nazionali. Vi sono punti di accesso, chiamati “provider di Internet”, che hanno server che forniscono servizi di autenticazione, hanno la facoltà cioè di riconoscere nomi e password personali, e hanno accessi diretti alla grande rete. La finalità di tutto questo è che ci si collega telefonando a numeri urbani attraverso un modem, che è un MODulatore / DEModulatore di segnale analogico/digitale. Il modem (interno e/o esterno) ha il compito di convertire i segnali digitali del computer in segnali analogici trasferibili sulla linea telefonica (modulazione) e di convertire i segnali analogici in arrivo nella corrispondente sequenza di bit (demodulazione). Le linee telefoniche infatti sono linee attraversate da un segnale analogico, mentre gli elaborati codificano, come sappiamo, i dati in sistema digitale. Ma attenzione, perché ad oggi non tutte le linee telefoniche sono analogiche (si sono sviluppate linee che sfruttano le tecnologie digitali). La ISDN è appunto un tipo di linea interamente digitale e necessita quindi per la connessione di modem ISDN. La linea ISDN offre una prestazione in termini di quantità molto più veloce, perché è composta di due canali di dati da 64 Kb. ciascuno. 4.1. LA POSTA ELETTRONICA La posta elettronica, in termine tecnico detta e-mail, garantisce una comunicazione ‘epistolare’ istantanea grazie ad appositi server e appositi protocolli chiamati SMTP () e POP (), dove ogni utente si riserva un nome e una password per la propria casella presso un domino registrato, per esempio: human.computer.interaction.bergamo@gmail.com / human-computer interaction@gmail / human-computer interaction bergamo@ficarra.it / hci bergamo@gmail.com / chi bergamo@mail.it / hci.unibg@mail.it / chi.unibg@gmail.it Il simbolo @ che si legge comunemente ‘at’ – dall’inglese (presso) - o chiocciola, definisce attraverso quale server si può raggiungere e lasciare messaggi indirizzati alla casella specificata. Esistono particolari programmi per la gestione delle E-mail, e anche i principali browser ne permettono la consultazione e l’invio. Nella casella di posta elettronica “gratuita” esiste il limite di spazio in Megabyte e l’eventuale cancellazione nel caso non si ricevessero i messaggi. Esistono, nell’ambito della posta elettronica, strumenti supplementari che permettono di agevolare la comunicazione tra gli utenti: Allegati. Priorità dei messaggi. Filtraggio e inoltro automatico della posta elettronica. Conferma della ricezione. Posta non richiesta. Messaggi di assenza. 4.2. IL PROTOCOLLO Esiste una rete quando due o più computer sono connessi fra loro in modo tale che questi computer possano condividere dati e scambiarsi informazioni. Questi macchine sono chiamate host o nodi della rete. Un computer che offre determinati servizi (ad esempio fornisce file o servizi di autenticazione delle password di una rete) è chiamato “server di rete”. I nodi di una rete si scambiano informazioni utilizzando una serie di regole predefinite chiamate protocolli. Tutti i computer della rete utilizzano i protocolli per definire i servizi che un computer può rendere disponibili agli altri computer, ad esempio l’accesso ai file o il controllo della stampante. I protocolli di rete variano a seconda della tecnologia impiegata dalla rete. Tuttavia la maggior parte dei protocolli di rete offre la possibilità di attivare connessione TCP/IP per consentire l’accesso a Internet. Un protocollo è un software che a livello di connessioni di rete si occupa del dialogo e del riconoscimento reciproco tra i computer e le applicazione che su questi risiedono. La sigla TCP/IP = Transmission Control Protocol / Internet Protocol, rende possibile la comunicazione attraverso la commutazione. L’indirizzo IP ipotetico per un server può essere: 255.255.255.0 Risulta importante conoscere il significato di cinque importanti protocolli: PPP (Point to Point Protocol): È il metodo più comune di connettere un PC ad Internet. È più rapido perché comprime i dati nelle intestazione e ottiene l’indirizzo IP dell’utente in via automatica dall’host. Inoltre, controlla la connessione con la macchina remota che ci permette la navigazione su Internet. Contiene lo userID e la password. In più, consente lo scambio con il server che ci permette l’accesso all’Internet. HTTP (Hyper Text Transfer Protocol) e FTP (File Transfert Protocol) definiscono due dei principali modi che abbiamo per navigare in Internet. Il primo rende possibile attraverso uno standard mondiale l’interattività della pagine Web, il secondo permette lo scambio di file e informazioni tra due host (un host indica il nome di un computer specifico in un dominio o subdominio più ampio).L’HTTP è il protocollo che rende possibile tutto ciò e restituisce al browser la pagina HTML da navigare. UDP (User Datagram Protocol): È un altro protocollo a livello di trasporto. Dunque anche questo protocollo si occupa di trasferire i dati fra le applicazione. Tuttavia il protocollo UDP è meno affidabile del protocollo TCP. ICMP: Internet Control Message Protocol: si occupa della gestione dei messaggi di errore della rete. Finalmente, l’ISO (International Standards Organization), organizzazione costituita da un gruppo di scienziati, ha stabilito gli standard internazionali in molti campi. Alla fine degli anni 1970, l’ISO propose un modello per il collegamento dei sistemi (in altre parole un modello di rete) che fungesse da base per l’implementazione delle reti in tutto il mondo. Per informazioni sul modello di rete ISO si può visitare il sito: www.uwsg.indiana.edu/usail/network/nfs DNS: DNS (Domain Name Server) è il server dei nomi di dominio. La genesi di tali nomi discende dalle prime connessione tra computer. Ora su Internet si hanno delle macchine server che risolvono i cosiddetti “nomi di dominio” in quanto la navigazione attraverso indirizzi IP è mascherata con una navigazione con nomi più consoni al nostro linguaggio, del tipo: Registrazione Domini Online Domini e sottodomini sono metodi per organizzare gli indirizzi Internet. I domini sono aree estese suddivise in base alla finalità (.com per le organizzazioni commerciali, .edu per le istituzione educative, ecc.), mentre i sottodomini sono aree più piccole nell’ambito dei domini (microsoft.com, adobe.com, macromedia.com, java.sun.com, ecc.). 4.3. LINEE DI PRODOTTI PER LA RETE Ecco l’elenco delle principali sistemi e server (a titolo informativo): Sistemi: Nell’ambito di tale categoria sono raggruppati tutti i sistemi di elaborazione con prezzo fra 6.000 e 50.000 euro, e che comunemente non siano assimilati a PC: Sistemi Unix: Bull (Estrella, Escala), Hewlett Packard, IBM (Risc 6000), Olivetti (LSX Alpha e Stratrus), Siemens Nixdorf (Rmxxx), Silicon Graphics (Challenge), Sun Microsystems (Enterprise), Unisys (U6000)- Sistemi proprietari: Bull della famiglia DPS, Digital Alpha Server, IBM AS/400 ... Workstation: In questa categoria sono classificate le unità di elaborazione, caratterizzate da funzioni d’uso monoutente ancorché utilizzate in larga misura in configurazione di rete: Workstation propietarie, ad esempio Digital. Workstation Risc su Unix: con architettura Risc e ambiente operativo Unix. Personal Computer: L’evoluzione tecnologica ha fatto fortemente crescere il range delle tipologie di prodotti che possono essere raggruppati in questa tecnologia: Server: Sistemi ad elevata potenza, solitamente utilizzati come sistema centrale per la gestione di soluzioni architetturali basate su reti locali; Personal workstation: PC che abbinano, alle configurazione tipiche dei prodotti professionali da tavolo, acceleratori grafici e schede video ad alta risoluzione (ideale per la grafica e l’editoria multimediale). Desktop: Sistemi tradizionali da tavolo, che in relazione alla propria composizione e configurazione possono assumere caratterizzazioni marcate per ambiente business o consumer (strumenti di gestione della voce e delle immagini in movimento, accessori e servizi addizionali indirizzati alla loro fruizione per applicazione connesse all’entertainment). Notebook e portatili in genere 4.4. COMPONENTI PER SERVIZI ON-LINE: L’ULTIMA GENERAZIONE MULTIMEDIALE Net-Top-Box: Termine derivato dall’incrocio di Set-top-Box e Net (rete). Indica un dispositivo che consente di utilizzare i servizi Internet attraverso il televisore di casa. Set-Top-Box: Letteralmente scatola che sta sopra. Indica tutti i dispositivi, solitamente posizionati sopra il televisore, impiegati per ricevere programmi trasmessi in formati differenti da quello standard (ad esempio in formato digitale) o in modalità criptata. Il Set-Top-Box riceve come input un segnale non visualizzabile su un normale televisore e restituisce come output un segnale visualizzabile che passa nel televisore attraverso la normale presa per l’antenna. Push: Indica una logica di fruizione di contenuti Web alternativa a quella tradizionale di ricerca e scaricamento.Un servizio basato su logica Push (spinta) presuppone che l’utente si abboni ad un canale caratterizzato dalla forte tematizzazione del contenuto. Il contenuto selezionato dall’utente viene inviato dal content provider e scaricato sul PC in maniera automatica quando l’utente si collega ad Internet. Webcasting: Termine utilizzato per indicare tutte quelle forme di comunicazione punto-massa che avvengono attraverso il WWW, dalla TV via Internet alla trasmissione di pagine Push all’aggiornamento automatico o meccanico del software. UNITÀ 1 LE TECNOLOGIE DELLA RETE 5. RETI LOCALI E RETI GEOGRAFICHE 5.1. RETI LOCALI Nella maggior parte dei casi, le reti hanno un ambito limitato all’ufficio (reti locali o LAN – Local Area Network) o al campus universitario (reti metropolitane). Il tipo più grande di rete prende il nome di rete ad area geografica (WAN – Wide Area Network). Concettualmente, Internet è una “rete di reti”. Internet include un gran numero di reti locali (LAN) di enti commerciali, accademici e governativi. Una LAN è costituita da un gruppo di computer connessi fra loro o connessi a un computer centrale (server) in cui tutti i computer sono prossimi gli uni agli altri. In una LAN, ogni utente utilizza un PC (desktop o portatile). Ognuno dei computer è dotato di una scheda di rete. Seconda della configurazione del computer, la scheda di rete può essere interna o esterna. Qui a destra abbiamoun’immagine di scheda interna. 5.2. RETI GEOGRAFICHE Internet è connesso a un numero sempre crescente di reti geografiche (WAN – Wide Area Network), che è una rete in grado di connettere fra loro computer e reti locali separati da grandi distanze. In generale qualsiasi rete che connette due computer distanti fra loro più di uno o due chilometri è considerata una rete geografica. Secondo certi autori può essere considerata rete geografica anche una rete contenuta in un unico edificio o in una sede universitaria dove la distanze sono molto più ridotte. Una rete geografica può connettere computer situati in una singola città o può connettere i computer di un’azienda situati in una nazione o in più continenti. Ogni server connesso a Internet fa anche parte di Internet. In altre parole, la rete Internet è costituita da tutti i server ad essa connessi, indipendentemente dal fatto che essi appartengano a LAN, WAN o provider. In questi ultimi dieci anni, il tasso di crescita di Internet è stato sorprendente. Nel 1985, Internet comprendeva solo 1961 computer host (principali utenti = ricercatori e dipendenti statali degli Stati Uniti). Nel 1988, Internet, contava più di 80.000 computer host, una crescita pari al 4.000 %. Dal 1997 in poi, Internet ha continuato a ingrandirsi a tassi di crescita esponenziali. Alla fine del 1988 e secondo la fonte “Internic” (gruppo che assegna e registra i nomi di dominio degli Stati Uniti) presentò un rapporto secondo il quali Internet erano connessi più di 16.500.000 server, che rappresentano 830.000 domini di alto livello. 5.3. I RISCHI E LA SICUREZZA La connessione del sistema a Internet espone a vari tipi di attacchi che crescono giorno dopo giorno. Questi attacchi sfruttano i seguenti punti deboli: Vulnerabilità dei dati; Vulnerabilità del software; Vulnerabilità del sistema fisico; Vulnerabilità delle trasmissioni. Per prepararsi a questi attacchi, ci si deve attendere che ogni potenziale intruso possa sfruttare queste vulnerabilità per accedere ai dati e danneggiare il sistema. L’introduzione dei servizi Internet in una rete LAN può aprire falle nei sistemi di sicurezza e tali falle possono essere utilizzate da utenti non autorizzati per accedere alle risorse della rete aziendale. Gli intrusi possono anche invadere il server Internet, modificando i file in esso memorizzati. Gli hacker possono intercettare i messaggi di posta elettronica o possono inserire nel sistema virus e altri programmi distruttivi auto-replicanti in grado di danneggiare o disabilitare completamente il sistema. Le reti connesse a Internet sono soggette a vari tipi di attacchi: Attacchi alla password; Attacchi alla sicurezza della rete e dei pacchetti; Attacchi che sfruttano i file di accesso privilegiato; Attacchi al protocollo IP; Attacchi ad accedere alle librerie condivise; Attacchi all’organizzazione aziendali, ecc. 5.4. DIFESE DI RETE Diamo a questo punto un’occhiata a quali possono essere i sistemi di difesa a nostra disposizione contro attacchi indesiderati: Firewall. Zone demilitarizzate. Reti private virtuali. Sistemi di rilevamento delle intrusioni. Trappole ed esche. Scanner di vulnerabilità. Sicurezza della posta elettronica. Crittografia. Firewall (muro antincendio): serve a impedire l’accesso agli estranei. I firewall rappresentano il confine fra una rete privata e la rete pubblica. Per scavalcare un firewall è possibile introdurre qualcosa di nascosto, mascherandola con dati autorizzati. A seconda del tipo e della configurazione del firewall, questo può essere facile, difficile o praticamente impossibile. Zone demilitarizzate (DMZ) sono un territorio di nessuno. Per quello che riguarda i firewall, una zona demilitarizzata è un’area della rete nella quale vengono collocati i servizi pubblici. Per fare questa zona occorrono due firewall logici, uno che protegga la DMZ dai pericoli esterni e uno, più restrittivo, che protegga la rete interna da quelli della zona demilitarizzata. In questo modo si ottengono un’area semipubblica e una decisamente private (funziona). Reti private virtuali (VPN, Virtual Private Network) è semplicemente una connessione sicura all’interno di una rete pubblica; tali reti garantiscono la protezione servendosi di vari protocolli di crittografia. Una VPN può essere intesa come una sorte di passaggio segreto all’interno del firewall. Sistema di rilevamento delle intrusioni (IDS, Intrusion Detection System): sono monitor di reti, ossia strumenti che sorvegliano la rete alla ricerca di comportamenti sospetti. L’IDS può essere realizzato in due modi: Impropri (è in grado di rilevare attacchi perché ne conosce le caratteristica, ad esempio esaminando i pacchetti alla ricerca di particolari stringhe di bit); Anomalia (con riferimento a dati, secondo le statistiche). Trappole ed esche: Le trappole sono elementi della rete studiati i modo da renderla inutilizzabile non appena qualcuno li tocca. Le esche sono trappole mascherate in modo da sembrare particolarmente interessanti agli eventuali aggressori. A differenza dei firewall e degli IDS (di cui è sempre possibile scoprire la marca), trappole ed esche possono essere create su misura per la rete da proteggere. Scanner di vulnerabilità: Sono programmi che esamino una rete alla ricerca di punti deboli noti, spetta poi all’amministratore decidere se e come eliminarle. Nel 1995 fu rilasciato SATAN (Security Administrator Tool for Analyzing Networks) destò molto scalpore. Sicurezza della posta elettronica: La posta elettronica non dispone di un sistema di sicurezza incorporato. Così come avviene per i pacchetti di rete, anche i messaggi di Email possono essere letti da qualsiasi computer situato fra il mittente e il destinatario. La soluzione più semplice e diretta per proteggere i messaggi di posta elettronica è usare la crittografia. Crittografia: La crittografia rappresenta un modo per proteggere le informazioni trasmesse dalle intercettazioni. Utilizzando hardware con funzionalità di crittografia è possibile collegare tramite Internet reti geograficamente disperse sul territorio come pure consentire l’accesso tramite Internet a utenti remoti, senza preoccuparsi del fatto che qualcuno possa intercettare e leggere i dati. Il software antivirus installato nei firewall esamina automaticamente tutti i messaggi di posta elettronica per individuare eventuali programmi nocivi. Nelle società più grosse questi strumenti individuano circa 1.000 virus al giorno. Se tutti i messaggi delle e-Mail fossero crittografati, il software antivirus non riuscirebbe a trovare nulla (a meno di non disporre delle chiavi di codifica). UNITÀ 1 LE TECNOLOGIE DELLA RETE 6. SOFTWARE E HARDWARE IPERTESTUALE / IPERMEDIALE ON-LINE E OFF-LINE 6.1. INTRODUZIONE E BREVE PANORAMICA STORICA Lo sviluppo delle tecnologie che comprendono immagini fotografiche, testi grafici, video, animazione 2D e/o 3D, e materiale audio fra di loro correttamente combinati hanno portato a un’indubbia trasformazione del sistema informatico ora limitato a elaboratori di testo, elaboratori di dati numerici o a una loro combinazione. Questo nuovo impatto si rifletterà soprattutto nel campo professionale, nel campo scientifico, in quello educativo, nella realtà domestica e nelle strutture pubbliche, raggiungendo, così, virtualmente, tutti i livelli della società generando un importante impatto sociale. Tutto ciò trasformerà la tecnologia della multimedialità in un qualcosa con cui ci si dovrà, inevitabilmente, confrontare. Il primo serio tentativo di realizzazione di un sistema ipermediale risale al 1968 quando Engelbart e English hanno introdotto il sistema “Augment” per potere gestire una lettura e scrittura strutturata dei documenti. L’evento scatenante nello sviluppo della tecnologia ipermediale si è verificato nel 1987 a Chapel Hill dove si è tenuto il primo convegno sull’ipermedialità (Hypertext’87). Da quel momento in avanti si è verificata una continua crescita si nell’interesse sia nela produzione di sistemi ipermediali, con numerosi prototipi e veri propri sistemi ipermediali commerciali che hanno visto una continua crescita, come dimostrato, per esempio, da HyperCard sviluppato per sistemi Apple Macintosh. Le caratteristiche dell’ipermedialità si adattano perfettamente a quelle applicazioni che prevedono un elevato grado di interazione e fra questi si possono citare: editoria elettronica, sistemi di informazioni in linea, sistemi di istruzioni gestita da computer, manuali diagnostici e di riparazione, sistemi di supporto di gruppo, sistemi di authoring, ecc. Fra i prodotti commerciali presentati sul mercato ipermediale negli anni 1980 si possono citare: HyperCard della Apple (Goodman, 1987). Guide della OWL International (Brown, 1987). Hyperties della Cognetic (Shneiderman, 1987) KMS della Scribe (Akscyn et al., 1988). Linkway della IBM (IBM, 1989). Sono essenzialmente sistemi di uso generale, in grado di catalogare e ricercare informazioni di tipo multimediale, anche se la maggior parte di essi sono in grado di gestire correttamente solo testo e immagini. Molte funzioni ipermediali sono state altresì inserite nell’interfaccia utente di prodotti come l’Agenda della Lotus. Nei laboratori di ricerca e a livello universitario sono stati sviluppati anche sistemi più complessi e maggiormente orientati alle applicazioni commerciale: - Intermedia dell’Università Brown (Yankelovich et al., 1988). - NoteCards della Xerox PARC (Halasz et al., 1987). - Neptune della Tektronix (Delisle e Schwartz, 1987). - gIBIS della MCC (Conklin e Begemnan, 1988). Essi sono stati rispettivamente sviluppati per gestire processi di istruzine su larga scala (Intermedia), raccolta e analisi di informazioni (NoteCards), progetti di ingegnerizzazione di software su larga scala (Neptune), supporto gestionale e delibere decisionali preventive (gIBIS). Questi prototipi vengongo per lo più utilizzati come veicoli per investigare specifiche situazioni, cioè, sono stati utilizzati e testati su un gran numreo di utenti e in un gran numero di situazioni. 6.2. SOFTWARE Il mercato ipermediale digitale può essere suddiviso fondamentalmente in tre aree: - L’area off-line delle piattaforme per titoli pre-registrati (CD-ROM, piattaforme dedicate ai videogiochi, DVD). - L’area on-line dei servizi telematici, oggi costituita prevalentemente dai servizi Internet. - Servizi di televisione digitale. Il mercato dell’editoria multimediale off-line e on-line presenta una serie di prodotti commerciali per creare contenuti ipermediali. Sono essenzialmente tre attualmente i software adibiti alla creazione di contenuti ipermediali, e sono Adobe, Macromedia e Asymetrix. Adesso, facciamo una breve panoramica di questo settore illustrandone le diverse caratteristiche e gli aspetti più interessanti... Adobe Premiere 6.0 è un strumento di editing video professionale di una semplicità incredibile che colma con naturalezza il divario fra video digitale e Web. Questo software pluripremiato si conferma come l'applicazione di più facile accesso oggi disponibile sul mercato. Con l'introduzione del supporto del video digitale sulla piattaforma Windows e il supporto multipiattaforma di tutti i principali formati video per Web, Premiere si impone con tutta una serie di nuove caratteristiche e funzioni, che vanno a consolidare ulteriormente la sua fama di miglior strumento di editing video sul mercato. Vediamo adesso un breve elenco dei requisiti necessari per utilizzare il software sul sistema Windows: - Processore Intel Pentium (300 MHz) - Microsoft Windows 98, Windows 98 Seconda edizione, Windows 2000, Windows Millennium o Windows NT 4.0 con Service Pack 4. - 32 Mb. di RAM (128 consigliati). - 85 MB di spazio libero su disco rigido per l'installazione (40 Mb. per l'applicazione). - Scheda video da 256 colori. - Disco rigido di grande capienza o serie di dischi. Vediamo invece quali sono i requisiti aggiuntivi per il video digitale Windows: - Interfaccia IEEE 1394 compatibile con Microsoft DirectX - Scheda video compatibile con Microsoft DirectX - Disco rigido di grande capienza o serie di dischi (in grado di sostenere 5 MB/sec) - Per il video digitale incorporato: necessari Windows 2000, Windows 98 Seconda edizione o Windows Millennium Infine l’unico requisito aggiuntivo per le schede di acquisizione di terze parti è una scheda di acquisizione certificata Adobe Premiere. Vediamo invece ora quali sono i requisiti necessari per il sistema Macintosh - Processore PowerPC - Software Mac OS versione 9.0.4 - 32 Mb. di RAM disponibile (128 consigliati) - 50 Mb. di spazio libero su disco rigido per l'installazione - Apple QuickTime™ 4.1.2 - Disco rigido di grande capienza o serie di dischi. I requisiti aggiuntivi per il video digitale Macintosh sono: - Processore PowerPC (da 300 MHz) - Apple FireWire 2.4 - Interfaccia FireWire (IEEE 1394) compatibile con QuickTime - Disco rigido di grande capienza o serie di dischi (in grado di sostenere 5 MB/sec) Infine, anche in questo caso l’unico requisito aggiuntivo per le schede di acquisizione di terze parti è la scheda di acquisizione certificata Adobe Premiere. Adobe InDesign 2.0 contiene gli strumenti di impaginazione che avete sempre desiderato. Si integra perfettamente con Adobe Photoshop, Adobe Illustrator e Adobe Acrobat. Inoltre, lascia spazio alla vostra creatività, grazie alle sue funzioni intuitive che riducono a pochi semplici passaggi anche le più elaborate operazioni di design. Quando siete pronti, i risultati di stampa sono precisi e affidabili. Con InDesign 2.0 e possibile anche andare oltre la stampa, con il supporto incorporato per la pubblicazione di pagine su qualsiasi supporto: in Adobe Portable Document Format (PDF), come eBooks, sul Web e in altri modi. Adobe Illustrator 10, definisce una parte del futuro della grafica vettoriale, con innovative opzioni creative e potenti strumenti che consentono di pubblicare in modo efficiente la grafica sia sul Web che in stampa. Per realizzare grafica Web d'impatto,si può provare i nuovi strumenti per simboli e le innovative opzioni per dividere la grafica in sezioni. Gli strumenti di distorsione dinamici non pongono limiti alle idee creative. Adobe After Effects 5.5 comprende un set completo di strumenti per la creazione di grafici in movimento ed effetti visivi per film, video, dati multimediali e siti Web. C’è un numero illimitato di funzioni creative con un elevato controllo di precisione mentre lavorate in ambiente 2D o 3D. After Effects offre un'integrazione completa per Adobe Premiere, Adobe Photoshop e Adobe Illustrator in grado di produrre risultati di alta professionalità. After Effects è disponibile in due versioni. La versione Standard fornisce strumenti di composizione, animazione e creazione di effetti speciali. La Production Bundle contiene tutti questi strumenti più supporto del colore a 16 bit, capacità di grafica vettoriale, rendering di rete nonché altri strumenti avanzati per la codifica, la gestione dei movimenti, gli effetti visivi, il canale 3D e l'audio. La Production Bundle comprende inoltre Zaxwerks 3D Invigorator Classic, un plugin appositamente concepito per la produzione di grafica 3D di qualità cinematografica e televisiva. Adobe Web Collection racchiude quattro potenti applicazioni Adobe in una suite completamente integrata: Adobe GoLive, Adobe Photoshop, Adobe Illustrator e Adobe LiveMotion. Dai forma alla tua creatività realizzando siti Web dinamici, interattivi e di grande effetto grazie a un set completo e integrato di strumenti professionali della prossima generazione. Adobe Web Collection offre in un'unica confezione tutti gli strumenti per competere nell'attuale mondo del Web. DREAMWEAVER 4 E FIREWORKS 4 Macromedia Dreamweaver 4 ha quasi tutto quello che occorre per sviluppare un sito Web dall'aspetto professionale. Adesso è possibile creare grafica Macromedia Flash direttamente in Dreamweaver. La intuitiva interfaccia utente e gli strumenti di layout visivo di Dreamweaver e del suo ambiente di modifica del testo, facilita notevolmente il lavoro. 6.3. HARDWARE Quando si parla di multimedia “off-line”, il primo pensiero è verso il CD-ROM e oggi il DVD. Nella breve storia dei CD-ROM è possibile guardare come due società, (Philips e Sony) nel 1978 collaborarono per giungere alla produzione di compact disc audio o CD. In questo modo, Philips aveva già sviluppato lettori di dischi che sfruttavano la tecnologia laser mentre Sony, dal canto suo, vantava un’esperienza decennale nel campo della registrazione digitale. Nel 1982 le società annunciarono il loro standard, che comprendeva le specifiche tecniche per la registrazione e per la campionatura, nonché il formato a 5 pollici attualmente esistente. La capacità standard di ogni CD-ROM è di oltre 600 Mb. equivalente a circa 500.000 pagine di testo. Oggi con un CD-ROM è possibile inserire: le pagine gialle, un’enciclopedia di ventuno volumi, l’atlante stradale generale a colori, ecc. Standard di dati: ISO 9660 I primi CD-ROM erano prodotti esclusivamente per un solo lettore e ciò significava che un disco prodotto per il lettore della società “A” non poteva essere letto dall’apparecchio della società “B”. Questa incompatibilità bloccò lo sviluppo dell’industria dei CD. Philips e Sony, collaborarono per fissare gli standard dei Cd audio, e svilupparono a tale scopo il cosiddetto “Libro giallo” delle specifiche tecniche per i CD di dati. I colori dei libri vengono utilizzati per definire le specifiche dei CD-ROM: Rosso: Audio. Giallo: Dati. Verde: CD-I (Philips), CD-ROM-XA Arancione: Registrabile (CD-WO, CD-R). CD-I – CD Interactive Nel 1989 Philips presenta una tecnica digitale basata su CD-ROM. Il primo riproduttore CD-I non prevede la presenza di una tastiera ed è collegabile a un comune monitor o a un apparecchio TV di tipo standard. Le caratteristiche del sistema CD-I sono: Audio: Disponibilità di 16 canali paralleli; possibilità di riproduzione audio superiore alle 19 ore; ideale per applicazioni musicali e multilingue. Video: Possibilità di riproduzione di oltre 7000 immagini di qualità fotografica. Testo: Gestione di 300.000 pagine dattiloscritte … IOMEGA ZIP UNITÀ 1 LE TECNOLOGIE DELLA RETE 7. CONFIGURAZIONE STANDARD DI UN SISTEMA PER L’EDITORIA MULTIMEDIALE 7.1. INTRODUZIONE Prima di comprare un Pc per generare il sistema di lavoro nel settore della Editoria Multimediale è fondamentale valutarne le caratteristiche: Processore e velocità. Scheda madre (Intel, Compaq, Hewlett Packard, IBM, ecc., ecc.) Memoria RAM / max. (64 Mb. / 768 Mb.) Banchi memoria disponibili / liberi: 1, 2, 3, … Disco fisso (in Gb.) CD o DVD: Ad esempio, DVD 8x + Masterizzatore Scheda video / memoria (Mb.): nVidia TNT2 / 32 Mb., ATI Rage II Pro Integrata 8 Mb., Voodoo 3, ecc. Inoltre, la possibilità di aumentare la memoria. Sintonizzatore TV. Scheda acquisizione video. Risoluzione max. / nº colori: Ad esempio, 1.920 x 1.200 / 16 milioni. Scheda audio: Creative Sound Blaster Live 64, scheda audio integrata, Creative ES1373 integrata, ecc. Numero di Porte USB: 2, 3, 4, … Monitor / pollici: Compaq MVT720 / 15”, Philips / 17”, ecc. Modem / Kbps: Interno / 56 Kbps, Diamond / 56 Kbps, interno / 56 Kbps. Ventole e affini (quando il hard disk del sistema e capace di raggiungere elevate velocità di rotazione (7.200 / 10.000 giri al minuto) o schede video potenti, è necessario istallae una coppia di ventole supplementari. Occhialini 3D. Schede di rete – Hub (interna o esterna). Driver ed unità di backup: Ad esempio, cartuccia Iomega Zip 250. Microfono, cuffie, altoparlante, webcam, ecc. Software incluso: Microsoft Works Suite 99, McAfee Virus, Scan, Ring Central Fax, giochi, ecc. Documentazione: sì (generalmente). CD-ROM ripristino: sì (generalmente). Acquistabile on-line: sì (E-commerce). Assistenza: garanzia (12, 24, 36 mesi); tipo di assistenza (on site – a casa / on center – servizio tecnico); estensioni garanzia (€ ?). Numero verde. Sito Internet. Configurazione on-line: generalmente è “NO”. Quasi sempre al momento dell’acquisto di un sistema di Editoria Multimediale, le idee non sono molto chiare per svariati motivi: magari la configurazione cercata non è disponibile, oppure i componenti sono stati aggiornati e questo comporta un sensibile ritocco in Euro; i programmi inclusi sono solo “pre-istallati” senza alcun manuale di utilizzo o CD-ROM che ne spieghi il funzionamento, ecc., ecc. Come sempre Internet può aiutare a configurare il nostro sistema per l’Editoria Multimediale, citiamo ad esempio alcuni siti che potrebbero esserci di aiuto: guide.supereva.it/multimediale http://www.appuntisuldigitalvideo.it/ www.eurosito.it Per generare e gestire una documentazione ipertestuale occorre assicurarsi di avere a disposizione i seguente prodotti “gratuiti”: Il browser Microsoft Internet Explorer oppure Netscape Navigator. L’editor HTML Microsoft FrontPage Express oppure Netscape Composer. Il word processor WordPad, ma soprattutto il text editor NotePad (Blocco note, in italiano) Il programma grafico Microsoft Paint. L’installazione sul proprio Pc dei programmi coinvolti nella generazione e nell’esplorazione di documentazioni ipertestuali, è ragionevolmente semplice. Problemi legati ad eventuali conflittualità reciproche, praticamente non esistono in quanto ogni programma fa riferimento a proprie librerie oppure a quelle di sistema senza apportare alcuna modifica. 7.2. COME VALUTARE UN COMPONENTE DEL SISTEMA: ESEMPIO SCANNER A prima vista gli scanner possono sembrare tutti uguali, però essistono diversi aspetti da considerare: Dpi ottici e risoluzione: la sigla “dpi” sta per “dot per inch”, ossia “punti per pollice”. Questo indica la massima risoluzione alla quale lo scanner può acquisire le immagine utilizzando soltanto il sensore in dotazione. Esistono scanner che arrivano a 1.200 o addirittura 2.400 dpi, ma è davvero difficile acquisire un’immagine ad una risoluzione superiore ai 600 dpi, e ciò per due ragioni: la prima è che, per quanto riguarda la visualizzazione su video, all’aumento della risoluzione di scansione corrisponde un puro aumento delle dimensioni dell’immagine. Ad esempio, un monitor settato alla risoluzione video di 1024 x 768, viene già completamente riempito da una foto di 15 x 10 cm ( 6 x 4 pollici) scansionata ad appena 180 dpi. La seconda, la risoluzione della stampante. È del tutto inutile effettuare una scansione a 1200 dpi se la stampante è in grado di riprodurre le immagini a soli 600 dpi. Interfaccia o connessione hardware: la scelta del tipo di interfaccia determina, oltre che parte del costo della periferica, anche la velocità di scansione e di trasferimento dati tra lo scanner e il PC. In ordine di velocità sono: a. Interfaccia SCSI (occorre procurarsi anche una apposita scheda da inserire in uno degli slot del PC). b. Interfaccia USB (più standard con un PC Pentium III o IV). c. Interfaccia Parallela (non è consigliabili i modelli parallei dal momento che, oltre ad essere molto lenti, andrebbero collegati alla medesima uscita generalmente già destinata alla stampante o a un lettore Zip). Range dinamico o profondità di colore: gli scanner generalmente hanno un range di 24, 30, o 36 bit (alcuni sono di 42 o 46 bit). Maggiore è il range dinamico dello scanner, maggiore il livello di dettaglio che esso riesce a rilevare nelle aree più scure delle immagini scansionate (foto o diapositive). Software: mai come nel caso degli scanner, il software incluso fa davvero la differenza. Controllare sempre che i programmi di fotoritocco e di trattamento delle immagini siano compresi nel prezzo dello scanner. Generalmente ogni fabbricante di scanner include un “software proprietario” che fa da interfaccia con la periferica. Esistono varie tipologie: HP Precision Scan (fortemente automatizzati e destinati al principiante) e Umax MagicScan e Microtek ScanWizard (ricchi di opzioni e destinati al utente esperto). Si possono trovare anche software di più alto profilo come Adobe PhotoDeluxe o PhotoShop Le. quello più importante è il software OCR (Optical Character Recognition) come Textbridge o Omnipage, con i quali si può utilizzare il vostro scanner per importare testo stampato all’interno di un qualunque word processor. Altre specifiche sono: Metodo di digitalizzazione: a passaggio singolo. Dimensione del documento: A4/Lettera. Modalità di digitalizzazione: a colori 36 bit, gradazioni di grigio 12 bit, B/N 1 bit. Risoluzione: risoluzione ottica 600 dpi x 1.200 dpi; risoluzione massima 19,200 dpi. Sensori: quasi tutti gli scanner piani (flatbed) dispongono di sensori CCD (Charge Coupled Device) costituiti da un sistema ottico di lenti e specchi. Alcuni modelli economici montano sensori CIS (Contact Image Sensors) privi di sistemi ottici. Per questo motivo la qualità dell’immagine prodotta è inferiore a quella ottenibile con i sensori CCD. 7.1. PRIMI INDIRIZZI INTERNET PER LA CONFIGURAZIONE DEL SISTEMA www.hp.com/it: Ecco l’unione di 3 periferici in uno: stampa, fax, scanner …e “tutto a colori”. Un modello per il futuro prossimo … www.epson.it: Il magico mondo della stampa ed altri componenti per l’editoria. www.sharp.it: Dalla calcolatrice al Pc portatile multimediale. www.canon.it: Stampanti, video, ecc. La tecnologia ipermediale del Giappone … www.acer.it: Monitori con display LCD, portatile ed altro … www.compaq.it: Computer multimediali per l’ufficio e la casa. www.ibm.it: Le grande soluzione di server e sistemi aziendali. www.3com.it: Connessione alla rete (Intranet e Internet). www.logitech.com: Mouse, tastiera, jostick ed altro … (tecnologia cordless) www.afga.com: Il mondo della immagine digitale. www.intel.com: Dal microprocessore al microscopio elettronico Intel QX3 Un pioniere importante dell’hardware multimediale è www.creative.com 7.4. PRINCIPALI COMPONENTI DI HARDWARE MULTIMEDIALE “ON-LINE” Apple http://www.apple.com/ L'azienda della mela presenta tutti i suoi prodotti, in particolare PC. Canon http://www.canon.it/ Commercializzazione e supporto su tutto il territorio nazionale di prodotti digitali-multimediali, sempre con la possibilità di massimizzare l'uso del colore. Creative Labs http://www.soundblaster.com/ Creative Labs è la società che ha inventato la scheda audio Sound Blaster, divenuta lo standard per il sonoro su PC. Dell http://www.dell.com/ Consigli e informazioni sui prodotti della Dell Corporation. Direct http://www.direct.it/ Interfaccia chiara per la quantità d'informazione su processori, schede video, monitor, stampanti, ecc. Eizo http://www.eizo.com/ La compagnia Eizo presenta la collezione dei suoi prodotti, in particolare monitor. Epson http://www.epson.it/ Epson offre soluzioni complete di input/output dal settore business e professionale sino al consumer, con prodotti che vanno dall'acquisizione delle immagini alla visualizzazione (videoproiettori), fino alla stampa. Fujitsu http://www.fujitsu-europe.com/ Fujitsu Italia è specializzata nella proposizione di una vasta gamma di periferiche per computer, quali stampanti, hard disk, unità magneto ottiche, scanners. Hauppauge Computer Works http://www.hauppauge.com/ Distributori di schede multimediali PC/TV di propria produzione, note con il famoso nome WinTV. Hardw.Upgrade http://www.hwupgrade.it/ Capire quale è l'hardware più opportuno al computer con il quale si lavora non è un più un problema, grazie alle prove comparative di questo sito. Hewlett Packard http://www.hewlett-packard.com/ Tutti i prodotti della Hewlett Packard, in particolare informazioni su stampanti e scanner. Hyundai http://www.hyundai.it/ Hyundai Italia è distributore per il mercato italiano di PC, monitor, notebook e server prodotti di elevata qualità, destinati ad una utenza professionale. Iomega http://www.iomega.com/ Famosa azienda grazie all'unità zip. Di modello in modello, cresce capacità di archiviazione file. LG Electronics http://www.lgelectronicsitalia.com/ Importazione, vendita, manutenzione prodotti IT: monitor, memorie ottiche (CD & DVD-ROM, CDRW), digital image (scanner, telecamera per PC). Importazione, vendita, manutenzione prodotti consumer e office. MacPoint http://www.macpoint.it/ Tutto le novità della Apple in questo sito. Quattro sezioni dedicate a iMac, iBook, G4 e Powerbook. Matrox http://www.matrox.com/ Azienda conosciuta per la produzione di schede grafiche come Millenium, MAG, ecc. Tutte le informazioni sulle schede a disposizione dell'utente mondiale di computer grafica e multimediale. Minolta http://www.minolta.it/ La soddisfazione del cliente guida la vendita delle soluzioni Minolta: le copiatrici analogiche Cs-Pro e le soluzioni digitali Dialta, le stampanti Page Pro, i fax, gli scanner, le fotocamere digitali e gli stumenti di misurazione del colore. Nec http://www.nec.org/ Informazione molto dettagliate su monitor, computer e stampanti. Philips http://www.philips.com/ L'azienda olandese offre informazioni su CD-ROM, DVD, monitor ecc. Samsung http://www.samsung.com/ Possibilità di scaricare icone, immagini desktop, screensavers per monitor. Ricoh http://www.ricoh.it/ Leader nella produzione di copiatrici b/n, a colori e digitali, sistemi modulari e multifunzionali, stampanti laser, fax a carta termica e a carta comune, duplicatori digitali, scanner e fotocamere digitali. Tektronix http://www.tektronix.com/ Tektronix propone una vasta gamma di stampanti per soddisfare le esigenze di tutti. Tektronix offre l'esclusiva tecnologia solid ink a 1200 dpi in fronte retro automatico. Toshiba http://www.toshiba.com/ Un sito molto curato nella grafica per presentare i portali, unità di CD-ROM e tantissimi altri prodotti. Zdnet http://www.zdnet.it/ Sito con più di 18 edizioni nazionali, incluso l'italiano. Ci si informa e si impara dall'hardware fino il funzionamento del computer, un sito con consigli d'oro per gli acquisti. In sintesi... Di seguito, ricapitoliamo quali sono gli accorgimenti necessari al fine di non commettere errori al momento dell’acquisto di un Pc che sia adatto alle nostre esigenze: Differenziare un PC assemblato da quello di marchio. Dividere il mondo Macintosh dal PC IBM (compatibile) – sotto sistema operativo Windows. Valutare la possibilità di crescita dell’attività multimediale nel futuro immediato per l’acquisto di periferiche. Differenziare l’immagine statica (stampata) dall’immagine digitale. Analizzare il tipo di immagine e suoni più frequenti nella creazione multimediale: animazione (2D e/o 3D), fotografia digitale, video, realizzazione musicale, ecc. Definire il software di lavoro. Inserire tutti i meccanismi di sicurezza dell’informazione: programmi antivirus, firewalls, backup, ecc. Studiare il potenziale cliente della attività di Editoria Ipermediale e Communicazione. Indagare garanzie, costi tecnici, manutenzione, rottamazione, ecc. UNITÀ 2 LA STRUTTURA DELL’INFORMAZIONE IPERTESTUALE 1. LINEARITÀ E NON LINEARITÀ: ASPETTI FONDAMENTALI 1.1. INTRODUZIONE I nuovi media amplificano le possibilità di realizzare testi che stanno in relazione con altri testi attraverso l’uso dei “link”. Organizzare un contenuto multimediale vuole dire mettere ordine selezionando, scegliendo ed escludendo, per far emergere le differenze, ovvero l’identità di un prodotto multimediale in supporto CD-ROM / DVD, o l’identità del sito rispetto agli altri, ad esempio. Certamente la ricchezza della comunicazione multimediale risiede proprio nell’essere prevedibile, in quanto essa permette una navigazione in cui le associazioni di senso talvolta emergono casualmente. La ricchezza di questa imprevedibilità nella linearità è il valore aggiunto del multimediale e la garanzia per una crescita della propria conoscenza, altrimenti circoscritta a circuiti predeterminati. Un bell’esempio, è il lavoro di Peter Gabriel nel settore multimediale/ipermediale. La linearità o no è il risultato da una parte delle scelte operate durante l’organizzazione dei materiali e dell’intreccio che si costruisce in questa fase. Creare un collegamento tra tematiche differenti (ad esempio, l’informazione turistica, l’economia, la storia, ecc. di una città) potrebbe non essere semplicemente un approfondimento di una parte dei contenuti, bensì un passaggio cruciale all’interno del percorso “argomentativo”. Quando si parla di percorso “argomentativo” è importante pensare sempre secondo questo schema chiamato “classical linear structure - narrative”: Climax Conflict Exposition Resolution Linearità La drammaturgia aristotelica, dal teatro classico fino alla telenovela con gran successo in TV, presenta una struttura attuale in tre parti, che corrispondo alla suddivisone drammatica in vari atti, ossia: l’esposizione, il conflitto, il punto più critico e la risoluzione del conflitto. Ad esempio, il finale “classico” può essere: happy end, open, close, ecc. Da tale modello lineare conseguono i prodotti cinematografici. 1.2. L’ORIENTAMENTO ALL’UTENTE Il collegamento tra tematiche differenti dovrà situarsi coerentemente in relazione agli obiettivi del sito o del contenuto multimediale “off-line”, e alle sue modalità espressive: la struttura fornisce orientamento all’utente. Se la logica della struttura sarà sufficientemente chiara, l’utente sarà in grado di prevedere in anticipo dove e in che modo troverà i contenuti che cerca. Ad esempio, se l’utente capisce che la struttura del sito è ad albero si aspetta di poter sempre tornare al livello superiore e utilizzare un indice per effettuare altre ricerche in quel determinato ramo. In poche parole: se la struttura è chiara, la navigazione diventa più intuitiva e immediata. Al contrario, se la struttura non è abbastanza chiara, ci sarà una mancanza di orientamento o esplorazione delle interfacce / contenuto: Ecco un sistema multimediale di non linearità (esplorativa 100%) di Peter Gabriel. Nel libro “Gli spazi dell’ipertesto” si trovano questi spazi: Lo spazio logico: si tratta di configurazioni topologiche, e di organizzazione a rete nella età del Rinascimento … Lo spazio visibile: Le metafore iconiche dello spazio logico rappresentato nello spazio visibile, la sintassi “interna” ed “esterna” ... Lo spazio agito: Uno spazio per leggere; i soggetti dell’azione comunicativa; caratteri della navigazione ipertestuale: La multilinearità. La connettività. La reticolarità. 1.3. LA MULTILINEARITÀ La metafora della navigazione, applicata alla fruizione ipertestuale, rimanda in primo luogo alla libertà di percorso consentita all’utente. Una libertà di grado considerevolmente maggiore rispetto alla fruizione e, in particolare, alla lettura tradizionale. I prodotti multimediali sembrano suggerire un radicale rinnovamento delle modalità di accostamento al testo: la linearità e la sequenzialità della lettura su supporto tradizionale paiono soppiantate dalle caratteristiche opposte. A uno spazio che - nei libri “classici” e non E-book – si presenta come orientato in modo rettilineo e scandito in tappe successive e concatenate, sembra sostituire una spazialità adirezionale e multiplanare. Ma attenzione! Perché, in realtà anche nelle pagine Web esistono tappe obbligate nella consultazione, ad esempio svuotare la cella per fare la ricerca su l’iperbase. Gli ipertesti non prevedono a priori una linearità che orienti in senso univoco il procedere del senso, sia nella componente verbale, sia, a maggior ragione, nella unità informative costituite da immagine. Tutto questo non significa però che il regime ipertestuale neghi in modo assoluto la linearità e la sequenzialità. Certamente che l’ipertesto recupera la linearità nella dimensione più piccola della fruizione, ossia, la navigazione. Sotto questa visione, la navigazione si presenta come un percorso a tappe libere, in cui però il singolo nodo è in genere progettato per una lettura che segue le modalità classiche, al meno fino alla eventuale segnalazione di un ulteriore approfondimento. Un classico esempio è il tempo di lettura necessario di una notizia su un giornale digitale: http://www.clarin.com.ar/ (idea originale nel disegno della home page, 11.11.2003) http://www.lavanguardia.es/ (“fotocopia” o plagio della idea “Clarín”, 11.11.2003) L’ipertesto non distrugge la linearità, né tanto meno la sequenzialità. Elimina la normatività, la costrizione monodirezionale secondo cui è normalmente costruito un testo. Invece, c’è l’orientazione alla organizzazione del materiale testuale in base al presupposto della possibilità di una pluralità di letture. All’interno di ogni singolo atto di lettura, viene costruita una nuova sequenzialità, frutto della concatenazione delle scelte individuale dell’utente. La lettura interattiva non è una negazione della sequenzialità. Invece siamo di fronte alla proposta di una multilinearità o multisequenzialità, in base alla quale l’utente può attualizzare nella consultazione e in conformità ai propri interessi. L’ipertesto prevede al proprio interno un numero variabile di percorsi, tutti ugualmente leciti, a seconda della complessità della progettazione e della ricchezza dei materiali contenuti (ipermedia / multimedia). Quindi, il fatto che la navigazione ipermediale ponga sovente di fronte a scelte alternative mette in dubbio la fattibilità di una conoscenza esaustiva del testo, l’immagine e il suono, se non a prezzo di una iterazione delle sedute consultative, in cui si preveda la ripetizione di alcuni passaggi obbligati (riusabilità della informazione). C’è anche chi legge l’impossibilità di una conoscenza esaustiva del testo come garanzia del suo valore: l’omissione di un senso è la contropartita inevitabile della ricchezza di sensi possibili che caratterizza il testo plurale. Al tempo stesso, è solo una lettura adeguata a far emergere tale profondità di significati, anche relativizzandone la quantità rispetto alla scelta di un preciso punto di vista. Qui è fondamentale il punto di vista della semiotica quando si parla di questi argomenti, che non cambiano tanto di fronte alla editoria multimediale. Lo scontro tra la parzialità del concreto atto di lettura e la totalità del testo teorico, se da una parte moltiplica i testi (limitati) costruiti attraverso la fruizione, dall’altra incrina la possibilità di una conoscenza del testo (soprattutto per quanto concerne le reti ipertestuali). Per concludere, il punto di vista di George Landow: “L’ipertesto come nuove regime letterario che cancella la distinzione tra chi scrive e chi legge, innalzando quest’ultimo al ruolo di co-autore.” “La lettura di un ipertesto può dirsi completa quando siano state recuperate le informazioni ricercate, e non quando sia stata percorsa la totalità del materiale disponibile, come per i testi su supporto cartaceo”. UNITÀ 2 LA STRUTTURA DELL’INFORMAZIONE IPERTESTUALE 2. GLI ELEMENTI DI FRUIZIONE DI UN IPERTESTO SU UN COMPUTER 2.1. INTRODUZIONE Facendo dei graffiti su un treno, comunico arbitrariamente e a senso unico qualcosa. Così come se vado al cinema ricevo qualcosa, inopinatamente e in un’unica direzione. Se, al contrario, mi cimento con la multimedialità non posso essere né semplice emittente, né semplice ricevente della comunicazione; mi trovo bensì costretto a divenire interlocutore tanto del mezzo (PC) che del prodotto (Internet, DVD, CD-ROM, e così via). Nella fruizione la persona è costretta ad ascoltare, capire, rispondere appropriatamente, risolvere problemi, scegliere dove andare, ecc. Questo semplice processo modifica notevolmente l’ambiente di comunicazione. Numerosi studiosi ritengono infatti che è più normale parlare di “interazione o fruizione” nel rapporto che si stabilisce tra persone e prodotti/tecnologie multimediale. E’ questo il punto dove l’evoluzione del concetto ipertesto è fondamentale in questa premessa. Un ipertesto viene fruito da un browser (rovistatore, scartabellare, curiosare). Il browser, ambito informatico è un particolare programma che permette la cosiddetta “navigazione” su Internet, ma anche su il disco rigido, CD-ROM, DVD, floppy, ecc. Ci sono diversi tipi di browser attualmente disponibili: Netscape ed Explorer. Opera è un terzo browser diffuso soprattutto tra i possessori di notebook e di computer poco potenti. Ritenere che un browser sia utile solo se si naviga sul web è un errore. Con un browser si possono realizzare documenti ipertestuali, multimediali ed ipermediali, certamente sfruttando le peculiarità del motore interprete, ad esempio un text editor (Blocco Note), un imaging editor (Paint), ecc. Un browser non ha bisogno di un modem per “interpretare” un file ipertestuale, né tanto meno occorre che sia connesso in rete. In un browser possiamo osservare: • I due bottoni (freccia a sinistra e a destra); • Il nome della pagina attualmente in corso di visualizzazione (in realtà è il percorso di raggiungimento); • I contenuti della pagina (un logo, preso come immagine, link, bottoni attive, ecc.); • Il titolo della pagina; • Lo sfondo; • La compresenza di tutti i comandi del sistema operativo sotto cui opera il browser; • Una barra di scorrimento verticale e orizzontale (questo ultimo dipende di svariati fattori). Di seguito, vediamo un elenco delle operazioni comuni ai due browser: Recupero del programma o istallazione. Strumenti di lavoro (aprire una nuova finestra di navigazione). Gestione delle pagine Web. Problemi di sicurezza (uso della scheda protezione). Interrompere il prelievo dei dati (se la connessione è troppo lenta). Creazione e gestione di un segnala libro. Salvataggio di tutto il testo contenuto nella pagina. Collegamento ai canali. Pianificazione dell’aggiornamento del canale. Creazione di un canale attivo. Spostamento della barra dei canali. Ricerca (tipi di motori, ricerca di un indirizzo di posta elettronica: www.four11.com, ecc.) 2.2. FUNZIONAMENTO DI UN BROWSER HyperTextual Mark-up Language, chiamato HTML è il “meccanismo” con cui gli ipertesti sono realizzati. Il linguaggio Html è l’evoluzione di altri linguaggi detti di mark-up, la cui funzione è quella di esprimere l’organizzazione di visualizzazione, tipicamente a stampa, di testi tipografici, tutti i “word processor” adottano rappresentazione interna di linguaggi di mark-up per identificare l’impostazione della pagine, la struttura dei vari paragrafi, delle tabulazioni, dei corsi e degli stili dei caratteri, dei vari grassetti e corsivi, e così via. Ogni comando è caratterizzato da una coppia di “parentesi” (inizio comando e fine comando), e da un identificatore che esplicita l’azione da compiere, ad esempio: Visualizzare il titolo della pagina; Inserire un’immagine a partire dall’informazione del suo nome e del percorso di raggiungimento; Agganciare a una parola o a un’immagine un’altra pagina, a partire dal nome e dal percorso, ecc. Come link da eseguire alla pressione del tasto del mouse, il browser: Visualizza sul nostro schermo tutto ciò che è testo, nel formato indicato dai vari comandi; Basandosi sulla convenzione definita in tutti i sistemi operativi sulla nomenclatura dei file, ne riconosce la tipologia e li tratta di conseguenza (.jpg = immagine, .wav = audio, .mpg = filmati, .avi = animazione, e così via. A fronte della pressione del bottone del mouse su uno dei bottoni il browser verifica il suffisso del file collegato e: A fronte di link, segue il percorso indicato per prelevare la nuova pagina Html. A fronte di altri tipi di file, invoca i programmi necessari per trattare il tipo di file riconosciuto, ad esempio può aprire una finestra per mostrare un filmato. 2.3. FRUIZIONE E ORGANIZZAZIONE DELL’INFORMAZIONE Nell’operazione di navigazione, gli utenti sono responsabili del controllo del processo di ricerca e, come risultato, saranno proprio loro (e non il sistema) che dovranno tenere in considerazione la struttura dell’informazione. Il ruolo viene ribaltato nel caso in cui viene avviata un’operazione di recupero mediato dell’informazione, dove è il sistema ad essere responsabile dell’operazione di ricerca e a dover, di conseguenza, valutare l’intera struttura informativa. La questione di chi deve operare con la struttura rappresenta la dimensione principale dell’esplorazione della base informativa (responsabilità strutturale) Una seconda dimensione dell’esplorazione delle informazione mette in contrapposizione le attività di scorrimento delle informazione con le operazioni di interrogazione. L’operazione di scorrimento delle informazioni (browsing) differisce da quella di interrogazione (querying) a causa dell’assenza di una precisa destinazione nella mente dell’utente. Waterworth, Chignell e Chung (Ingegneria della conoscenza per l’ambiente ipermediale) definiscono questa dimensione esplorativo delle informazioni come destinazione orientamento. Nel loro modello, la distinzione fra le operazioni di browsing e quelle di querying non viene determinata dalle azioni dell’utente o dalla configurazione del sistema, ma dallo stato cognitivo dell’utente stesso. Presumibilmente si è in presenza di un continuum del comportamento dell’utente che con il passaggio da un’operazione di scorrimento delle informazioni a quella di interrogazione, viene modificato in accordo alla specificità degli scopi dell’utente quando viene avviata un’esplorazione informativa. La definizione di browsing si basa soprattutto sulla distinzione fra l’esplorazione delle informazioni con destinazione predefinita e l’esplorazione delle informazioni dell’utente in contrapposizione al sistema. La definizione di navigazione, invece sottolinea la responsabilità dell’utente in contrapposizione al sistema. Un documento ipermediale correttamente realizzato dovrebbe poter disporre di un meccanismo per spostarsi da un nodo all’altro, in modo da potersi adattare ai diversi stili di esplorazione delle informazioni. Di seguito vengono riportati alcuni modi per potersi spostare fra i nodi: Spostamento tramite interrogazione; Spostamento tramite cancelli o percorsi; Spostamento tramite l’uso di collegamenti di navigazione; Spostamento tramite domande. In sintesi, la fruizione deve essere veloce … UNITÀ 2 LA STRUTTURA DELL’INFORMAZIONE IPERTESTUALE 3. IPERTESTI E NAVIGAZIONE La navigazione equivale ad analizzare la struttura ipertestuale. I nuovi media amplificano le possibilità di realizzare testi che stanno in relazione con altri testi attraverso l’uso dei link o collegamenti. Organizzare i contenuti serve a mettere ordine selezionando, scegliendo ed escludendo, per far emergere le differenze, ovvero l’identità del sito, rispetto agli altri. La struttura è il rapporto tre le parti e il tutto; è il modello logico attraverso il quale il testo costruisce il proprio senso. È un contesto che attribuisce senso ai suoi contenuti. Ad esempio, un film con una struttura simmetrica, invece, crea dei rapporti di continuità di senso specifici tra le parti del film tra loro speculari (quando c’è un episodio in cui non è accoppiato con gli altri – Ad. es. in “Pulp Fiction con sette episodi in cui il quarto non è accoppiato con il resto). Le unità d’informazione del testo multimediale, oltre ad avere un’identità propria, assumono dunque senso dal contesto che le circonda e dal loro essere in relazione con altre parti del testo. Forniscono e ricevono senso dalla struttura che le contiene. Nella fase in cui si definisce la struttura del sito, la gerarchia stabilita precedentemente viene usata per struttura le relazioni tra le unità tematiche secondo modelli adeguati agli assunti e alle funzioni del multimedia. Durante la fase dell’ideazione, viene scelta, tra le tante possibili, un ben precisa modalità organizzativa con lo scopo di esprimere attraverso di essa un punto di vista e una funzione specifica. Spesso le creazioni dell’uomo sono condizionate dalla progettazione di una struttura. Ciò che avviene nella creazione di una realtà virtuale in un multimedia riflette gli stessi principi adottati nella progettazione di società che avviene nel mondo reale. Tale scelta guida l’organizzazione dei contenuti all’interno di uno più percorsi principali. Il sito e ogni suo percorso principale si sviluppa dal menu iniziale secondo una sua specifica struttura logica che potrebbe essere di tipo narrativo, argomentativo, tassonomico, ecc. 3.2. PRINCIPALI TIPOLOGIE DI STRUTTURA PER UN SISTEMA MULTIMEDIALE 1. Lineare: unidirezionale e bidirezionale. 2. Lineare con approfondimenti. 3. Parallela o a enciclopedia. 4. Albero. 5. Circolari e simmetriche; 6. Matrice; 7. Aperte e fluttuanti; 8. Rizomatica; 9. Rete neurale o mutante; 10. Amorfe; 11. Molteplice. 1. Lineare o narrativa: unidirezionale e bidirezionale Questa è la struttura più classica della storia ipertestuale. Una narrazione letteraria potrebbe svilupparsi sintatticamente in un percorso tra sezioni collegate in una sequenza lineare. La possibilità di navigazione può essere unidirezionale e bidirezionale, cioè, direzione “unica” o no, per andare avanti o ritornare nella storia multimediale, ad esempio. 2. Lineare con approfondimenti Quando una struttura lineare permette di approfondire certi argomenti. Ad esempio, ampliare una definizione. 3. Parallela o a enciclopedia Una narrazione potrebbe svilupparsi anche tra sezioni appartenenti a percorsi sequenziali multipli paralleli. Un’enciclopedia può essere strutturata secondo criteri analoghi: un indice di voci a ognuna delle quali corrisponde la lettura sequenziale di un percorso specifico. Un ulteriore livello di approfondimento, che per economia visiva non viene espresso nella struttura, permette un intreccio di collegamenti associativi tra le singoli sezioni. 4. Albero Un’argomentazione potrebbe svilupparsi tra sezioni appartenenti a percorsi sequenziali multipli ramificati ad albero, disposti in tal modo paradigmaticamente in opposizione o relazione tra loro. Nella struttura della diapositiva Nº 16 / 24 il terzo livello può corrispondere dunque a una scelta alternativa oppure a un abbinamento logico su un percorso sequenziale orizzontale. Quest’ultima struttura è una delle più usate nella realizzazione di un sito, particolarmente efficace per siti che hanno una funzione tassonomica (classificazione dal generale al particolare) o argomentativa. 5. Circolari e simmetriche Le strutture riportate sopra potrebbero aggiungere alla loro morfologia anche la caratteristica di essere di tipo circolare oppure simmetrico. Sono strutture che possono avere una diversità di forma, come ad esempio, l’asse di specularità (vedi diapositiva Nº 21 / 24), cioè, in un percorso unidirezionale la narrazione iniziata in 1 si conclude in 5, quella iniziata in 2 si conclude in 4, mentre la sezione 3 sta da sola. 6. Matrice È un tipo di struttura particolarmente adatto alla realizzazione di database con accesso a un dato tramite ricerca con due o più parole chiave. L’acceso a un’informazione già strutturata in unità d’informazione denominate “record”, con parole di accesso possibile e “campi” che possono essere organizzati secondo sequenze ordinata alfabeticamente come un sistema multimediale per un dizionario linguistico. Potrebbe inoltre essere adeguato per rappresentare l’organizzazione di siti le cui pagine non esistono ma vengono create dinamicamente come risultato di una ricerca non strutturata. Ad esempio, l’accesso alla informazione tramite i motori di ricerca, a un’informazione di per sé non strutturata, ovvero le pagine Internet che non seguono tutte gli stessi criteri di strutturazione. Sono gli autori del motore di ricerca a decidere le modalità di risposta possibili alle “query” (domanda). 7. Aperte e fluttuanti Esistono anche tipologie di strutture variabili, ovverosia strutture indeterminate che mutano sia in base all’uso che ne viene fatto (sviluppando percorsi differenti e un intreccio di relazioni indeterminato) sia evolvendo e trasformandosi nel tempo. Queste strutture sono particolarmente adatte per soddisfare alcune caratteristiche specifiche dei nuovi media (lettura non sequenziale + contenuto mobile + possibilità di aprire un dialogo tra autore e utenti: Email, mailing list, newsgroup, chat, videoconferenza, ecc). 8. Rizomatica Dal termine “rizoma” con cui viene definita la radice della patata. Questa è una struttura aperta e si definiscono tali in quanto ogni parte del testo può potenzialmente essere collegata alle altre parti, dando luogo a testi le cui storie possono essere diverse a ogni lettura, così come i loro finali e soprattutto il senso che esprimono. Storie dunque che si sviluppano secondo percorsi costantemente differenti e mai prevedibili, in quanto dipendenti dalle scelte di navigazione operate dall’utente. 9. Rete neurale o mutante Quando una struttura ha delle unità nascoste indeterminabili (sebbene rispondano a delle logiche matematiche ben precise) che determinano il comportamento generale della rete. La matematica delle reti neurali prevede delle regole di retroazione in base alle quali le risposte della rete modificano lo stato interno della rete stessa. Questo potrebbe essere paragonato a situazioni in cui le azioni degli utenti possono comportare degli aggiornamenti del sito. Può essere considerata tale un’organizzazione che muta attraverso gli aggiornamenti apportati all’interfaccia dal Webmaster o dal singolo utente. 10. Amorfe Alcune strutture di tipo variabile possono essere definiti amorfe, ovvero prive di una forma riconoscibile. Questo caso è importante, in quanto fa capire che una struttura non è data solo dal suo aspetto morfologico, bensì anche dai suoi aspetti qualitativi; ovvero, non dai semplici collegamenti tra le unità della struttura, ma anche dalla qualità e dal tipo di rapporti che si vengono a instaurare tra tali unità. Sicuramente però la struttura può, almeno in parte, essere rappresentata graficamente, ed è per questo che il flowchart può diventare uno strumento efficace per rappresentare il senso. 11. Molteplice Quando una struttura è il risultato di più tipologie di struttura. Si pensi a come gli attuali musei astraggano certi quadri dalla struttura della chiesa che li conteneva originariamente: se la predisposizione che il quadro poteva comunicare nella chiesa poteva tendere verso valori di tipo religioso, nel museo essa si trasforma in una predisposizione a valori di tipo estetico. Un forte vantaggio dei prodotti multimediali risiede nella possibilità di fornire all’utente una molteplicità di strutture attraverso le quali organizzare il medesimo contenuto restituendone nel modo più fedele possibile (dati i limiti della virtualità dell’informazione) i contesti originari all’interno dei quali risiedeva l’informazione. UNITÀ 2 LA STRUTTURA DELL’INFORMAZIONE IPERTESTUALE 4. TOPOLOGIA DEGLI IPERTESTI 4.1. INTRODUZIONE Quando si parla delle strutture degli ipertesti è importane constatare che si tratta di un puro albero tassonomico, creato ad esempio con un semplice strumento di design come può essere “flowcharter”. Certo qualcuno può pensare che sia una struttura banale che si trova nel 90% dei casi. Il motivo di questa forte presenza risponde al fatto che essa si adatta a qualunque tipo di discorso: una home page, seguita da link tipo: presentazione, cosa facciamo, i nostri servizi, come arrivare da noi, ecc. Parliamo invece di struttura circolare quando abbiamo ad esempio la rappresentazione di una galleria d’arte, dove il navigatore ha l’impressione di “camminare” all’interno di una mostra con la possibilità costante di consultare il catalogo. La struttura, la segnaletica ed i contenuti conformano la “topologia” del sistema ipertestuale/ipermediale. Nello sfondo di un ipertesto esiste la possibilità di trovare “una spirale”. La spirale può riportare i vari temi, e per ciascuno dei temi che sopra di essa si collocano si apre una nuova spirale, che allarga sempre di più il discorso (come la classica spirale di Pierce quando parla di semiosis). Una visione di questo tipo pone le premesse per un’analisi più ricca e dettagliata della topologia delle reti ipertestuali. A seguito è rappresentate la struttura di un ipertesto a spirale, però attenzione perché la denominazione ‘struttura a spirale’ non dipende solo dalla forma nella figura, ma dal fatto che ad ogni frame è disponibile un link alla successiva, oppure a quella centrale di una sorta di gorgo, che individua in quest’ultima una sorta di centro di attrazione. Un esempio, può essere la struttura a spirale del prodotto multimediale off-line, il Musée d’Orsay (Montpanasse Multimedia – BMG Interactive). Una tabella segnala la probabilità di passare dalla pagina/frame presente a una di quelle a questa accessibili mediante i link disponibile. Una tabella presenta la probabilità di passare dalla prima pagina, con un passo alla seconda, alla terza e così via. Un grafico a forma di stella mostra la probabilità, dopo un certo numero di passi, di trovarsi a una certa pagina, il che evidenzia l’alta preferenzialità topologica (centro di una collana d’opere di un pittore). 4.2. TOPOLOGIA 2D E 3D Altra alternativa è pensare la topologia degli ipertesti in formato 3D, per capire meglio il problema della metafora e della mappa ipertestuale di un sistema, ad esempio. Come sappiamo l’essenza di un ipertesto sono: links, nodes e buttons. Altro problema da risolvere e che influenza in modo diretto la topologia è la gestione dei diversi media, perché quando Robert Horn parla di linkages, dice: “ … any place in any of these media can be linked to any other place …” Mettere insieme tutti questi media non è un lavoro facile, perché esistono diversi linkages: o Detours and shortcuts (skip to …); o Notes, commentary and reminders (nota …); o Analogical linkages (This is like); o New text (Add this text here); o Links to other knowledge bases; o Links in funzione della classificazione dell’informazione. o Links in ordine cronologico. 4.3. TOPOLOGIA E USO DELLA METAFORA Footnotes Commentaries Schede di biblioteca Indice Cross References Sticky Notes Quotes Anthologies (somiglianza) Topologia e la rete: presente e futuro … Ad oggi, la topologia della rete è di tipo farfalla. E’ possibile rappresentare la topologia in 3D e la realtà virtuale è un nuovo strumento da considerare quando si parla di topologia e links. La ricerca è costantemente alle prese con nuovi punti di vista di tipo multipli e si cerca di integrare sempre di più la teoria dell’informatica con quella della comunicazione. E’ necessario costruire sempre metafore di topologia vicino al sistema operativo d’uso e fare tanta attenzione alla segnaletica del sistema ipermediale ed al tipo di contenuto. UNITÀ 2 LA STRUTTURA DELL’INFORMAZIONE IPERTESTUALE 5. ATTRIBUTI DI QUALITÀ NELLA STRUTTURA DELL’INFORMAZIONE 5.1. INTRODUZIONE Oggi uno degli scopi principali dell’editoria multimediale è migliorare la qualità dei prodotti, ma dal punto di vista del disegno, il concetto di qualità può presentarsi in più di un’occasione in modo ambivalente. La qualità, quando c’è, è di solito trasparente, ma quando non c’è è facilmente riconoscibile (Ceddia, D. “Quality Control for Information Systems Development”. Proc. del IFIP WG3.4/SEARCC, North-Holland (Hong Kong, 1993), pag. 135-141). Risulta necessario indagare su quali sono i fattori che influiscono sulla qualità di un sistema multimediale. 5.2. PRINCIPALI FATTORI PER LA QUALITÀ DI UN SISTEMA MULTIMEDIALE • Accessibilità all’informazione. • Autoevidenza. • Competenza • Consistenza. • Controllo della fruizione. • Attenzione. • Orientazione • Naturalità della metafora. • Contenuti unidirezionali. • Livelli di contenuto. • Organizzazione del testo. • Pancronismo. • Riusabilità. • Universalità Accessibilità all’informazione L’accessibilità misura la facilità con cui l’utente trova l’informazione che sta cercando, ossia, se l’utente sta in un determinato luogo del sistema, può cercare di localizzare un nodo, senza necessità di navigare in aree per lui irrilevanti in quel momento. Autoevidenza L’autoevidenza misura l’attitudine dell’utente ad avvicinarsi al significato e allo scopo di ciò che gli si presenta per la prima volta. Nei sistemi di ipermedia, l’autoevidenza è divisa in vari livelli: 1. Raggruppare rapidamente gli stili di navigazione dell’applicazione senza aver familiarizzato con tutto il sistema; 2. Capire dall’origine di un collegamento il tipo di destinazione; 3. Comprendere il grado di controllo che è disponibile nei mezzi attivi (video, audio, animazione) e come eseguirli. Competenza La competenza consiste nella capacità del sistema di adattarsi alle abilità di navigazione dei principali gruppi di utenti. La precedente esperienza col funzionamento di sistemi multimediali, gli studi (o livello culturale), i motivi e i tempi della fruizione sono elementi che concorrono a creare diversi gruppi di utenti con i loro profili corrispondenti. Consistenza La consistenza è la verifica che gli elementi che sono concettualmente uguali hanno un comportamento simile, mentre quelli che sono diversi hanno diversi comportamenti. La consistenza nei sistemi multimediali stabilisce che le entità che rappresentano oggetti di uno stesso tipo dovrebbero avere una struttura simile, ossia uno stesso insieme di componenti, organizzati in base ad una medesima topologia e ad uno stesso modello di navigazione. Controllo della fruizione Il controllo della fruizione è il grado di libertà della navigazione concesso all’utente all’interno di un sistema multimediale. Il grado di libertà che l’utente ha su un sistema può essere alto, medio o basso, nel momento di decidere verso quali aree della struttura può dirigersi e quali azioni può svolgere. Attenzione L’attenzione è l’insieme dei mezzi dinamici e gli espedienti strutturali che potenziano o promuovono la navigazione del sistema multimediale. La motivazione cerca di concentrare l’attenzione dell’utente sulla necessità di continuare la fruizione del sistema. L’attenzione sullo schermo deve essere sostenuta, ossia, l’utente deve mantenere un’attitudine permanente di aspettativa verso il sistema. Gli espedienti che favoriscono l’attenzione possono essere classificati in questo modo: • Visivo-dinamico: uso di simboli, oggetti animati (linee, frecce, quadrati o rettangoli, cerchi che simulano le palpebre, ecc.) e illuminazione. • Visivo-statico: gli stessi espedienti descritti sopra, ma senza animazione. • Uditivo: suoni, musica o locuzioni di frasi Orientazione L’orientazione permette all’utente di capire quale è la sua posizione attuale, dove può andare, e la possibilità di tornare ad un nodo visitato. Naturalità della metafora La naturalità della metafora valuta la capacità dell’utente di comprendere l’insieme delle immagini che costituiscono la struttura dell’interfaccia. Un’immagine è naturale quando da sola tende a trasmettere un unico significato. La naturalità dell’immagine è in relazione diretta con la rappresentazione per simulazione del mondo reale. Un modo di presentare o visualizzare il contenuto testuale è attraverso la metafora del libro. Essa è una delle forme più utilizzate e diffuse internazionalmente per emulare la realtà nei sistemi multimediali/ipermediali. Questa emulazione nei sistemi di educazione orientati al pubblico infantile consiste nell’inserimento di linee nel testo come se si trattasse di righe del quaderno, che facilitano la lettura. Contenuti unidirezionali I contenuti unidirezionali analizzano l’uso di termini, immagini e suoni dell’interfaccia affinché non producano ambiguità tra il piano del contenuto e il piano dell’espressione. Gli elementi che compongono l’interfaccia sono tutti interrelazionati, e compiono una funzione di ancoraggio o rafforzamento del significato. Ferdinand de Saussure e Umberto Eco sostengono che è necessario differenziare tra: un idioma, una lingua e un dialetto. Come afferma Saussure, tra lingua e dialetto c’è una differenza di quantità e non di naturalità. Un dialetto porta il nome di lingua perché ha prodotto una letteratura scritta. Questa è un’affermazione proveniente dalla linguistica. Nielsen J. e del Galdo E. sostengono che gli aspetti linguistici nell’interfaccia devono essere considerati nel momento di progettazione del sistema. Uno stesso idioma in un sistema multimediale può avere un diverso trattamento. Nell’interfaccia “Guida mondiale di automobili” i fattori linguistici fanno sì che l’inglese statunitense venga differenziato dall’inglese britannico. Per ragioni linguistiche nell’internazionalizzazione o globalizzazione del progetto nell’interfaccia, ci sono due opzioni per una stessa lingua nell’applicazione CD-auto. In riferimento alla sonorità della lingua, qualcosa di simile a quanto descritto in precedenza accade con il castigliano rispetto alla geografia. In alcune regioni spagnole c’è una differenziazione del suono della “s” tra la “c” e la “z”, o della “ll” in relazione alla “y”, rispetto ai paesi di lingua spagnola in America Latina, dove non esiste tale distinzione. Inoltre, la quantità di elementi testuali dal punto di vista del contenuto non subisce alcuna modifica, visto che non c’è un aumento o una diminuzione dell’informazione immagazzinata nella base dati riguardante la sonorità. Un altro aspetto linguistico che influisce nella progettazione dell’interfaccia è l’estensione degli elementi testuali sullo schermo nell’utilizzo di diverse lingue in un sistema multimediale. Gli elementi testuali in genere variano dal punto di vista dello spazio occupato nella pagina, visto che il totale delle parole di un testo può variare da una lingua all’altra. Livelli di contenuto Di seguito verranno analizzati i livelli di contenuto che possono essere definiti come la quantità di informazione a cui l’utente può accedere all’interno del sistema. Questa è una qualità tipica dei sistemi destinati all’insegnamento assistito dal computer (EAO) e all’intrattenimento. La scelta del livello si effettua all’inizio della navigazione. Questa scelta è un’opzione localizzata in genere nella home page. I contenuti che vengono forniti in relazione al tipo di utente del sistema multimediale possono essere divisi in 3 livelli: basso, medio e alto. Nel livello basso l’utente ha accesso ad una maggiore quantità di informazione rispetto al livello alto. E’ durante la progettazione che si stabilisce la quantità di informazione da mettere in ogni livello; l’utilizzo di uno o più mezzi dinamici simultaneamente (audio-video, audio-animazione, video-animazione, ecc.); la quantità di nodi nei collegamenti guidati; il totale dei componenti in ogni entità, ecc. Una volta che è stato definito il livello del contenuto, e conoscendo in anticipo l’utente del sistema non è corretto suddividere uno stesso livello in altri tre. Organizzazione del testo Un modo efficace di organizzare il contenuto testuale nei sistemi ipermediali è la piramide inversa. Nella piramide inversa ciò che è più importante sta all’inizio, e ciò che è meno importante alla fine. L’uso della piramide inversa è consigliabile per aumentare la velocità di interazione uomo-computer, principalmente nel caso di enciclopedie, visto che in questo tipo di sistemi multimediali di solito prevale il testo sulle immagini. Negli elementi testuali di tipo statico analizzati prevale l’organizzazione del testo in forma di piramide normale, specialmente nel caso di dizionari ed enciclopedie. L’organizzazione a piramide normale ammette una divisione in 5 aree interrelazionate: 1. Presentazione o esposizione del tema (anche chiamato lid). In questa area si concentra il contenuto del resto dell’elemento testuale (slot testuale); 2. Spiegazione dell’idea principale. Serve per ampliare la presentazione del tema; 3. Sotto-temi. Distacca altri aspetti relazionati all’idea principale; 4. Informazione contestuale o background. Contestualizza i principali dati del tema che viene presentato; 5. Maggiori informazioni sulla presentazione del tema o lid. In quest’area viene prodotta una ridondanza dell’informazione che di conseguenza aumenta lo spazio di immagazzinamento dell’informazione nella base dati. Infine ci sono i dati di minore importanza o una conclusione. Le aree 2 e 3 enumerate nella piramide normale vengono unite nella piramide inversa. Perciò ci sono 4 aree soggiacenti e interrelazionate: 1. Il lid è l’area principale in cui viene presentato un riassunto o conclusione del tema in non più di 30 parole; 2. Spiegazione dell’idea principale e sviluppo degli eventuali sotto-temi; 3. Contestualizzazione dell’informazione; 4. Ampliamento del lid. L’uso della piramide inversa è una tecnica di scrittura che semplifica il contenuto, visto che già dall’inizio l’utente accede al nucleo dell’elemento testuale. Questo è il motivo per cui è preferibile organizzare l’informazione in forma di piramide inversa nei sistemi ipermediali, in particolare quando l’utente non ha esperienza precedente nell’utilizzo di computer. Una rappresentazione grafica delle aree di una piramide normale e inversa si trova nella figura seguente: Pancronismo E’ la sincronizzazione di audio, immagini in movimento e testo. Questo è un problema molto frequente nei sistemi multimediali on-line e off-line. E’ fondamentale che i diversi componenti del sistema vengano valutati e collaudati durante la progettazione per evitare la perdita di qualità del sistema. Il sistema karaoke per imparare una lingua è un bell’esempio in cui risulta facile capire se c’è o non c’è il pancronismo. Riusabilità La riusabilità nei sistemi ipermediali consiste nel fatto che gli “oggetti” e le operazioni utilizzate in determinati ambienti possono essere nuovamente utilizzati in contesti diversi e con scopi diversi. Ciò significa che la riusabilità fornisce diversi punti di vista su un medesimo tema, arricchendo cognitivamente l’applicazione per l’utente. Universalità Una pagina Web o un CD-ROM possono essere consultati in qualsiasi paese. Perciò esistono una serie di fattori culturali che devono essere rispettati al fine di presentare correttamente i contenuti multimediali a tutti gli utenti internazionali. Ad esempio, a partire dall’usabilità sono stati realizzati vari esperimenti in riferimento a ciò, come si può apprezzare nelle immagini seguenti: UNITÀ 3 PROGETTARE IL MULTIMEDIA 1. LE FASI DELLA PROGETTAZIONE 1.1. INTRODUZIONE La fase di progettazione è di fondamentale importanza nella creazione di un sito Web e/o un sistema ipermediale “off-line” per il fattore umano ed economico. Avere chiaro fin dall’inizio una serie di parametri può permettere di evitare vari sbagli molto comuni che possono portare a grandi perdite di tempo e denaro. Risulta fondamentale nella fase di progettazione: Definire gli obiettivi primari e secondari; Organizzare i contenuti e il materiale a disposizione; Creare uno storyboard; Scegliere i propri collaboratori. Quando una persona passa da semplici utilizzatori di Internet e/o CD-ROM – DVD a creatori di contenuti multimediale, è necessario evitare alcuni errori che farebbero perdere molte potenzialità al prodotto finale. 1.2. DEFINIRE GLI OBIETTIVI Nel caso della progettazione di un sito Web, il primo passo per ottenere questo risultato, sta nel definire nel modo più preciso possibile gli obiettivi del proprio sito. Il “gioco” della domanda retorica è interessante: Perché si vogliono mettere delle informazioni in rete? Che tipi di informazioni si vogliono mettere in rete? Che tipo di persone si vuole raggiungere? Rispondere in modo corretto a domande di questo tipo è fondamentale. Ma entriamo un po’ più nel dettaglio. Innanzitutto, il primo punto da chiarire riguarda il motivo per cui si vuole andare in rete. Basta visitare una decina di siti per rendersi conto del ventaglio di proposte diverse che possiamo trovare sulla rete. A seconda dell’obiettivo, le esigenze cambiano: un sito a carattere personale avrà sicuramente necessità diverse da quello di un’azienda di software che vuole vendere i suoi prodotti on-line. Può essere diverso lo spazio necessario per pubblicare le pagine, il tipo di tecnologia utilizzata o altro ancora. Avere chiaro l’obiettivo primario è quindi fondamentale. Anche se sembra una cosa automatica, in realtà non lo è. Perché presuppone che si facciano delle scelte, dal punto di vista dei contenuti, della forma e della tecnologia, da cui è difficile poi tornare indietro. Nel corso del libro “Progettare e sviluppare siti Web” si fa riferimento alla costruzione di un sito per un gruppo musicale. Ma quali possono essere gli obiettivi di un sito del genere? Fornire ai fan del gruppo informazioni, news, foto e quant’altro possa interessare. Può essere un ottimo veicolo commerciale per il merchandising e anche per vendere on-line i dischi del gruppo. Può avere uno scopo pubblicitario, cioè far avvicinare altri potenziali ascoltatori alla musica del gruppo. Come si vede, non necessariamente si ha un solo obiettivo; chiarirseli a priori serve poi a non trovarsi nella spiacevole situazione in cui, arrivati nel mezzo della realizzazione, ci si rende conto che si poteva aggiungere altro (il che ovviamente è sempre possibile ma il più delle volte comporta un’enorme perdita di tempo e denaro, per esempio rifare pagine già chiuse). Questi obiettivi secondari chiariscono anche che si avranno diversi tipi di informazioni da mettere in rete e quindi si renderanno necessari alcuni accorgimenti di tipo tecnologico. Esempi di gruppi musicali on-line: www.alanis.com www.abbasite.com www.thebeatles.com www.the-rolling-stones.com www.pinkfloyd.com www.elvis.com www.petergabriel.com www.tina-turner.com 1.3. ORGANIZZARE I CONTENUTI E IL MATERIALE A DISPOSIZIONE Una volta definiti gli obiettivi si può iniziare ad agire in concreto. Che cosa si mette in questo sito? Innanzitutto occorre definire gli argomenti che verranno trattati. Nel caso di un gruppo le sezioni fondamentali dovrebbero contenere: La storia del gruppo; La biografia dei componenti; Le foto; Canzoni o spezzoni di canzoni; I testi e gli spartititi delle canzoni; Videoclip; La discografia; Le novità sulle prossime uscite discografiche e sui concerti, o dove si fa ascoltare in anteprima uno spezzone del nuovo singolo; I link ad altri siti. Di base questo sarebbe già un buon sito di un gruppo musicale che accontenterebbe la maggior parte dei fan. Ma si possono aggiungere altre cose che possono fare felice ancora di più i sostenitori del gruppo: Un forum; Un’area con le basi dei brani da utilizzare per il karaoke; Aree di download di materiale gratuiti attinente al gruppo (sfondi con il logo o le foto del gruppo, piccole animazioni, salvaschermi, ecc.); E per tutelare gli interessi del gruppo, sicuramente non può mancare un’area di merchandising, dove si vendono i dischi, le videocassette, le magliette, i cappellini, ecc. Altri idee, che possono servire per attirare sul sito l’attenzione di altri utenti: una sezione dedicata ai giochi, o lezioni di chitarra fatte dal chitarrista del gruppo. Un sito con tutto questo materiale diventa veramente complicato da realizzare ed è impensabile partire senza aver pensato a priori a come organizzare tutti questi contenuti (strutturare l’informazione). La struttura di un sito definisce come sono stati organizzati i contenuti al suo interno e come si può arrivare (navigare) in ogni sezione. 1.4. LO STORYBOARD Lo storyboard, termine preso in prestito dal cinema, definisce il sito ancora più in dettaglio perché vengo forniti gli argomenti, i link e anche indicazioni sull’aspetto grafico di ogni singola pagina. Uno storyboard fatto bene può essere di grande aiuto quando si va a costruire effettivamente il sito, avendo sempre costantemente sott’occhio come deve essere e che cosa deve contenere ogni pagina (frame). Ovviamente, se il sito consiste in poche pagine, non sarà necessario. In caso di siti come quello del gruppo di musicale. Questa fase è anche ottima per vedere se si sono centrati gli obiettivi prefissati e se eventualmente ce ne possono essere di nuovi. Un modo di costruire uno storyboard veloce è con il programma tipo Word. Con questo programma si può creare una tabella a quattro colonne: La prima con il nome della pagina; La seconda che ne descrive i contenuti; La terza che individua i link ad altre pagine; La quarta che dà indicazioni di tipo grafico. Se si utilizza un programma di grafica, ogni pagina può essere indicata da un rettangolo al cui interno vengono scritte le informazioni, magari suddivise in vari campi, relative ai contenuti, alla forma e ai link. Con delle frecce si posso indicare i link tra le pagine. La prima cosa a cui pensare è la home page, la pagina d’accesso a tutto il resto, in cui, se mantiene tutte le sezioni distinte l’una dall’altra. La suddivisione per il sito è di questo tipo: - Gruppo: sezione che contiene la storia, le biografie, le foto; - Note, parole e immagini: canzoni da scaricare, testi e spartiti, discografia, videoclip; - Fan: sezione con forum e chat, area download, materiale freeware del gruppo; - Merchandising: sezione che dà la possibilità di acquistare online materiale di vario genere. - News: le ultime novità; - In più: sezione contenente il materiale non strettamente attinente al gruppo; - Link. Come si può vedere, i link nell’ipotetica home page sono stati ridotti all’osso, a solo sette, più ovviamente uno che fornisce l’indirizzo Email del gruppo. Lo storyboard è in pratica l’equivalente per un sito di quello che è il modello fatto da un architetto di un edificio. Un sito è raramente opera di una singola persona. Più comunemente è il frutto del lavoro di un’équipe: sono troppe infatti le competenze richieste per pensare che una persona sola le abbia tutte. Ovviamente dipende sempre dal risultato che si vuole ottenere. Se il scopo è quello di mettere in rete poche pagine senza troppi fronzoli non è necessario un gruppo di lavoro. Diverso è il discorso per siti di dimensioni notevoli e molto complessi. Si possono individuare diversi campi di intervento, ognuno dei quali richiede competenze diverse e quindi il lavoro di una o più persone: - Il progetto; - L’aspetto grafico; - I testi; - L’aspetto tecnico (programmazione, messa in rete, ecc.). Come si può vedere, ci sono diversi aspetti da curare; se si vogliono ottenere risultati ottimali, bisogna rivolgersi a esperti in ognuno di questi settori. D’altra parte è bene conoscere tutti gli elementi che stanno alla base della creazione di un sito, perché non sono mai completamente slegati tra di loro. 1.5. UN ESEMPIO PRATICO: E-MARKETING Quali sono le diverse fasi e le diverse professionalità nella costruzione di un sito? Nel contesto produttivo della creazione di un sito web l'approccio “user oriented” riguarda tutte le fasi della progettazione: dall'analisi di marketing all'implementazione dei database. L'usabilità è un filo rosso che attraversa persone con competenze diverse, animate dal medesimo atteggiamento: attenzione verso l'utente. Fino poco tempo fa in Italia, le fasi di lavorazione di un sito di medie e grandi dimensioni si dividono in questo modo: • Analisi di marketing: gli analisti di mercato si occupano di: 1. Analisi delle risorse, budget, opportunità; 2. Definizione degli obiettivi e dei target del sito a breve e medio termine (Internet business plan); • . Progettazione e Information Architecture: gli esperti di content design si occupano di: 1. Analisi del benchmarking; 2. Analisi delle risorse informative attuali e potenziali (pubblicazioni, redazioni, etc.); 3. Stesura del concept, definizione delle diverse aree del sito e loro relazioni; 4. Definizione dei flowchart (ramificazione degli argomenti); • Comunicazione: i graphic designers si occupano di: 1. Layout, look & feel della home page; 2. Look & feel dei template del sito; 3. Storyboard e grafica di eventuali animazioni; • Web development e/o programmazione Web: i programmatori web si occupano di: 1. Integrazione tra look & feel e altri linguaggi (css, javascript, dhtml, etc.); 2. Integrazione con i tag dinamici (asp, php, etc.); 3. Implementazione di linguaggi dinamici (php, asp, cgi, jsp , etc.); 4. Integrazione con database; 5. Manuntezione del sistema. In conclusione possiamo affermare che la fase di progettazione di un sito consiste nei seguenti passaggi: • Definizione degli obiettivi; • Definizione dei contenuti e del materiale da utilizzare; • Scelta della struttura con cui organizzare i contenuti; • Creazione dello storyboard. Altri consigli sono: • È importantissimo navigare il più possibile perché dal lavoro degli altri si può imparare tantissimo; • L’analisi critica dei siti, in base ad aspetti come la navigabilità, la facilità di reperire le informazioni, le tecnologie utilizzate in funzione dei tempi di caricamento e per rendere accessibili a più utenti le pagine, è un esercizio che va fatto continuamente; • D’altra parte è importante anche sottoporre ad altri il proprio lavoro perché è facile perdere l’obiettività particolarmente quando si è troppo coinvolti (accettare le critiche, ovviamente se sono costruttive). • Infine, mai scoraggiarsi se si fanno degli errori... UNITÀ 3 PROGETTARE IL MULTIMEDIA 2. L’USABILITÀ E LA COMUNICAZIONE 2.1. INTRODUZIONE Il termine “usabilità” significa utilizzabilità, facilità di utilizzo e deriva da un approccio nuovo alla creazione dei siti Web, basato sull’utente ed il suo rapporto con l’interfaccia, cioè sulla base delle finalità che l’utente si propone di ottenere a seconda del sito che sta visitando. Le analisi di usabilità si differenziano dalle semplici valutazioni svolte con altri approcci soprattutto per la verificabilità dei risultati e per il contributo concreto che portano al processo di design. Tale contributo focalizza l'attenzione su aspetti specifici e realizzabili. E' importante sottolinearlo: l'usabilità non dà pagelle ai disegnatori, ma tenta di aiutarli a risolvere problemi che emergono durante l'interazione tra utente e interfaccia. Sottolineare questo aspetto è compito degli esperti di usabilità e può alle volte contribuire anche a vincere le resistenze alla collaborazione di una parte dello staff coinvolta nel progetto. L’usabilità è quindi determinata da diverse caratteristiche, che dipendono anche dagli obiettivi da verificare: ad esempio se si tratta di valutare l’usabilità di un sito giornalistico, si valuterà l’efficienza nel dare informazioni aggiornate e la chiarezza; in un sito E-commerce, si valuterà l’efficacia nel favorire gli acquisti on-line, in altre parole si valuterà se il sito risponde e in che modo, alle aspettative dell’utente. In particolare J. Nielsen ha riassunto le caratteristiche di usabilità di un sito nell’acronimo “HOME RUN” ovvero: High-quality, Often, Minimal, Ease, Relevant, Unique, Net-centric. Con High-quality si indicano i contenuti di alta qualità, con Often, la frequenza degli aggiornamenti, con Minimal, i bassi tempi di scaricamento, con Ease, la facilità d’uso, con Relevant si indica in modo appropriato le esigenze degli utenti, con Unique, l’unicità delle caratteristiche del medium Web, con Net-centric, la centralità della rete nel fondamento della cultura aziendale, universitaria e così via. 2.2. DEFINIZIONE DELL’USABILITÀ: LA NORMATIVA ISO E J. NIELSEN Lo standard ISO/IEC 9126 “Information Technology - Software product evaluation - Quality characteristics and guidelines for their use” definisce l'usabilità come 'la capacità del software di essere compreso, appreso, usato e gradito dall’utente quando usato in determinate condizioni'. Lo standard ISO 9241-11 “Ergonomic requirements for office work with visual display terminals - Guidance on usability”, invece, definisce l'usabilità come 'il grado in cui un prodotto può essere usato da specifici utenti per raggiungere specifici obiettivi con efficacia, efficienza e soddisfazione in uno specifico contesto d'uso'. Jakob Nielsen, definisce l’usabilità come la misura della qualità dell'esperienza dell'utente in interazione con qualcosa, sia esso un sito web o un applicazione software tradizionale o qualsiasi altro strumento con il quale l'utente può operare Secondo Nielsen, un prodotto è usabile quando è facile da apprendere, consente una efficienza di utilizzo, è facile da ricordare, permette pochi errori di interazione e di bassa gravità, è piacevole da usare. In sintesi, quindi, per essere usabile, un prodotto deve: essere adeguato ai bisogni e alle aspettative degli specifici utenti finali che lo usano in determinate condizioni; risultare facile da capire, da imparare, da usare, ed essere gradevole; consentire di eseguire le specifiche attività lavorative in modo corretto, veloce e con soddisfazione Questi tre punti, oltre che sintetizzare i vari aspetti che le diverse definizioni di usabilità evidenziano, pongono l'accento su alcuni passi e attività da compiere durante il ciclo di produzione al fine di garantire l'usabilità del prodotto. Infatti, affinché un prodotto sia adeguato ai bisogni e alle aspettative degli utenti finali, occorre conoscere bene le caratteristiche degli utenti, le attività che svolgono e il contesto organizzativo e sociale nel quale sono inseriti e operano. Per quanto attiene invece la facilità di comprensione e di utilizzo, allo stato attuale, sono disponibili linee-guida di progettazione consolidati, basati sulle conoscenze degli aspetti cognitivi e comportamentali dell'interazione uomo-computer, che possono agevolare la realizzazione di un prodotto usabile. Tuttavia, questi aspetti non sono sufficienti. Per garantire l'usabilità è di fondamentale importanza confrontarsi costantemente con gli utenti finali, con coloro che saranno direttamente operativi sul prodotto una volta rilasciato, per verificare, valutare e, eventualmente, misurare le scelte di progettazione in termini di reale soddisfacimento dei requisiti utente. 2.3. VANTAGGI DELL’USABILITÀ NELLA PROGETTAZIONE Ancora oggi, in diversi contesti produttivi, si tende a sottovalutare l'usabilità, ritenendo che essa comporti dei costi che non vale la pena affrontare dal momento che non si intravedono vantaggi immediati per l'azienda produttrice. Spesso si crede anche di poter risolvere i problemi degli utenti nell'utilizzo dei prodotti allestendo e predisponendo moderni e sofisticati centri di assistenza o call center. Alla base di queste credenze vi sono ragioni storiche, ragioni legate ai modelli produttivi e ragioni culturali. Quello che va considerato, invece, è che un prodotto inusabile può essere quasi del tutto inutile (vale la regola se l'utente non la trova, la funzione non esiste) o, peggio, può rappresentare un costo notevole (ne sanno qualcosa gli americani che, in occasione delle elezioni presidenziali del 2000, si sono trovati ad affrontare non pochi problemi dovuti anche all'utilizzo di schede evidentemente poco usabili). Una produzione non orientata all'usabilità e, in definitiva, alla qualità del prodotto, non fa altro che spostare in avanti, nel ciclo di vita dei prodotti, i costi di produzione, spesso maggiorandoli e facendoli pesare quasi interamente sull'utente finale. I vantaggi che derivano dall'usabilità è ovvio che essi non riguardano solo gli utenti finali, ma anche l’industria (piccola, media o grande). In sintesi, per l’industria i benefici si evidenziano in termini di: • Incremento della vendite; • Incremento della qualità dei prodotti; • Incremento della produttività attraverso: • Riduzione dei tempi di sviluppo, • Riduzione degli interventi e dei costi di manutenzione, • Riduzione degli interventi e dei costi di assistenza (ad esempio, dei call center), • Riduzione dei costi della formazione per gli utenti finali, • Riduzione della documentazione utente (manuali e guide operative) e dei tempi per la sua realizzazione. Per gli utenti finali i vantaggi si evidenziano in termini di incremento della produttività attraverso: Riduzione dei tempi di esecuzione delle attività, Riduzione degli errori e dei tempi di recupero degli errori, Riduzione dei tempi per richiedere supporto e assistenza, Riduzione dei tempi di apprendimento (formazione, consultazione dei manuali); Incremento della soddisfazione; Incremento della qualità del lavoro, anche attraverso la riduzione della fatica e dello stress. George M. Donahue e altri della Compuware Corporation, in un interessante documento dal titolo “Usability is good business”, dove sono riportati numerosi esempi dei vantaggi economici derivanti dall'usabilità in America, concludono questo: il rapporto costi/benefici nell'ingegneria dell'usabilità è di 1 a 10-100, che vuol dire che per ogni dollaro speso per implementare l'usabilità, l'azienda ne realizza un beneficio tra 10 e 100 dollari. Altri dati erano riportati sul sito della Sun, ma oggi non più disponibili in Rete: si dimostrava che l'esecuzione di una analisi di usabilità, il cui costo si aggira in media sui 20,000 dollari, determina un risparmio economico di 153 milioni di dollari in termini di riduzione dei costi di call center e aumento della produttività degli utenti (certamente una realtà diversa alla nostra). Una buona analisi dei costi/benefici della progettazione orientata all'usabilità, con tanto di cifre, è riportata anche sul sito della Scuola Superiore G. Reiss Romoli, alla pagina Usabilità: costi-benefici. 2.4. I CONFINI IMPRECISI DELL’USABILITÀ Diversi ricercatori, nel tentativo di chiarire il concetto di usabilità, si sono trovati in difficoltà a tracciarne i confini. Attualmente, l'autore che sembra incontrare i favori della comunità che ruota attorno all'HCI è Shackel (in Morris e Dillon 1996), secondo il quale l'usabilità di un artefatto consiste ne "la sua capacità, in termini di caratteristiche cognitive umane, di essere utilizzato facilmente ed efficacemente da una specifica categoria di utenti, posto uno specifico esercizio e supporto all'utente, per svolgere specifiche categorie di compiti, all'interno di specifici scenari ambientali". Kunkel, Bannert e Fach (1995), facendo riferimento ai testi di Shackel, affermano che il contesto generale dell'usabilità abbraccia le quattro principali componenti di una situazione di lavoro: utente, compito, sistema ed ambiente. Secondo Shneiderman (1997), nel concetto di usabilità vanno identificate quattro dimensioni principali: l'efficienza (efficiency), la facilità di apprendimento (learnability), la facilità di ricordare i comandi principali (memorability), la soddisfazione nell'uso (satisfaction). Il concetto di usabilità, inoltre, va considerato come prettamente pratico, e la sua analisi deve fornire linee guida operative per la progettazione. Infatti, al centro del concetto di usabilità c'è la consapevolezza che ogni alternativa di progettazione deve essere valutata il più presto possibile con gli utenti potenziali del prodotto stesso. L'obiettivo della valutazione è quello di assicurare che i prodotti software siano caratterizzati da: brevi tempi di apprendimento, rapida esecuzione dei compiti, basso tasso di errore, facilità nel ricordare le istruzioni di base, alta soddisfazione dell'utente. Anche Morris e Dillon (1996) concordano nel considerare il concetto di usabilità come difficile da definire. Secondo questi Autori, essa viene spesso identificata solamente come un attributo dell'interfaccia, piuttosto che come una qualità propria del prodotto considerato nella sua totalità. Un aspetto molto importante che viene evidenziato dalla ricerca di Morris e Dillon, riguarda l'importanza che viene attribuita al fattore usabilità dai diversi membri componenti un'organizzazione. Mettendo a confronto le risposte fornite dai responsabili del sistema informatico interno di diverse organizzazioni con quelle date dagli utenti finali dei prodotti informatici dell'azienda, emerge chiaramente una differenza sostanziale nell'approccio al concetto di usabilità. Mentre gli utenti finali considerano la facilità di utilizzo del software il parametro più importante, i manager di sistema, nella maggior parte dei casi, non la prendono nemmeno in considerazione al momento dell'acquisto di un prodotto informatico, ovvero, nel migliore dei casi, la subordinano ad altre caratteristiche, come il prezzo o la potenza di calcolo. Questi risultati evidenziano come si sia ancora lontani da una piena accettazione dell'usabilità come parametro fondamentale per una scelta che soddisfi pienamente gli utenti finali. Una soluzione provvisoria a questo problema di confini è questa: Il problema rimane ancora aperto perché la base della soluzione è la scienza della comunicazione umana. 2.5. ALCUNI CENNI STORICI La storia dell'usabilità è iniziata circa 25 anni fa, quando il computer ha iniziato ad uscire dagli ambienti strettamente riservati ai progettisti e programmatori software. Fino agli anni ‘80, infatti, il software veniva prodotto e utilizzato prevalentemente dai progettisti ed è ovvio che, se l'utente di un prodotto è la stessa persona che lo ha costruito, l'usabilità è garantita e il problema non si pone. Nel 1983, presso la Apple, viene realizzato il primo computer con interfaccia grafica e mouse, destinato alla diffusione su larga scala. Da questo momento inizia l'introduzione sempre crescente del computer (con interfaccia grafica o a carattere) nel modo del lavoro, negli uffici e, progressivamente, nelle nostre case. E iniziano i problemi di usabilità. In questo primo periodo, l'approccio alla realizzazione è guidato prevalentemente dalla disponibilità tecnologia, demandando alla successiva formazione le spiegazioni per gli utenti finali sulle modalità di utilizzo. I costi di formazione, il verificarsi di numerosi errori di interazione utente-computer, l'evoluzione e la diffusione degli studi sul fattore umano condotti in diversi contesti produttivi da psicologi e ergonomi portano ben presto ad una riflessione sull'importanza dell'utenza finale. Al fine di agevolare l'usabilità, come prima cosa, si tenta di introdurre nei processi di produzione le linee-guida sul fattore umano. Le prime linee-guida per le interfacce grafiche furono scritte alla Apple, nel 1978. Dopo loro pubblicano il libro “Macintosh Human Interface Guidelines”. Vengono sviluppati i primi modelli formali dell'utente, basati sulle ricerche di psicologia cognitiva, che evidenziano i limiti umani di elaborazione dell'informazione e stabiliscono i requisiti minimi che un prodotto software dovrebbe avere. Nascono anche i primi laboratori di usabilità, nei quali lavorano esperti di usabilità ed ergonomi, con il compito sia di sviluppare linee-guida e modelli di utenza sia, soprattutto, di valutare l'usabilità dei prodotti. In questo periodo si sviluppa l'ergonomia cognitiva, come campo di studio e di applicazione delle conoscenze della psicologia cognitiva alla progettazione delle interfacce e del dialogo uomo-computer. Ben presto ci si rende conto tutto questo non è sufficiente e che eventuali, anzi assai probabili, difetti di usabilità rilevati nella fase finale di valutazione potevano raramente venire corretti per problemi di costi e di tempi (è nata da qui l'idea che l'usabilità sia più che altro un costo per i produttori). Si interviene quindi sui processi di produzione. I primi tentativi di cambiamento riguardano l'integrazione del modello “a cascata” con attività tipiche dell'usabilità. Si integra la fase di analisi dei requisiti con metodiche volte a migliorare l'individuazione dei bisogni degli utenti sia in termini di funzionalità effettivamente necessarie che di usabilità; vengono condotti sempre più frequentemente test di usabilità. Siamo verso la seconda metà degli anni ‘80 e in Scandinavia di afferma il cosiddetto 'modello partecipativo' (una depurazione del modello partecipativo affermatosi in Italia nei primi anni 70) che sostiene la necessità del coinvolgimento, fin dalle prime fasi della progettazione del lavoro, di coloro che quel lavoro fanno e faranno. Nel 1986 viene pubblicato il libro di D. Norman (socio attuale di Nielsen) e S. Draper “User Centered System Design: New Perspective on Human-Computer Interaction”. Questi eventi aprono la porta ad un nuovo modo di vedere l'utente finale e la progettazione dei sistemi software. Ci si rende conto che l'utente non può essere preso come un singolo individuo, avulso dal contesto nel quale opera, ma va visto come soggetto che appartiene ad una cultura e ad una organizzazione. L'utente è uno dei componenti del processo decisionale distribuito, che fa uso di molteplici artefatti cognitivi e sociali, anch'essi distribuiti, che caratterizzano una organizzazione e la rendono unica. Il modo stesso di utilizzare le tecnologie è influenzato dallo specifico contesto all'interno del quale le tecnologie si trovano e nessuno meglio degli utenti stessi possiede quella "conoscenze situata" che consente di decretare l'adeguatezza o l'inadeguatezza di un prodotto rispetto agli scopi per cui è stato costruito. Per questi motivi l'introduzione di linee-guida sul fattore umano o la definizione di specifiche generiche non poteva portare alla reale usabilità dei prodotti. Con il modello “user centered”, che inizia ad affermarsi su larga scala alla fine degli anni 80, si riconosce l'importanza non solo delle capacità e dei vincoli fisici e cognitivi dei singoli utenti, ma anche delle relazioni culturali, sociali e organizzative, nonché degli artefatti cognitivi distribuiti nell'ambiente che influenzano il modo di lavorare dell'uomo. 2.6. PREVISIONI PER IL FUTURO DELL’USABILITÀ: AREA DI RICERCA L’accessibilità per gli utenti disabili • Handicap connessi all’età; • Handicap visivi, uditivi, verbali, motori, cognitivi. Servire un pubblico internazionale: • Internazionalizzazione e localizzazione. • Progettare per l’internazionalizzazione. • Siti tradotti e siti multilingue (la scelta della lingua, ricerca multilingue, una lingua, un URL?). Web è il cambiamento, pensiamo ad esempio agli infodomestici. Adattamento ed inserimento della ingegneria della usabilità alla nuova teoria della comunicazione (ecco una prima soluzione al problema dei confini): Fine della Usabilità --> Era della comunicazione umana “libera”. L’usabilità e legata alla qualità del sito Web o un supporto della informazione interattiva e digitale off-line. Jakob Nielsen definisce 5 attributi di qualità per un sistema informatico (1989): • Efficacia: la misura in cui un utente è in grado di raggiungere l'obiettivo di un compito in modo corretto e completo; • Efficienza: la quantità di risorse spese in relazione all'efficacia; • Soddisfazione d'uso: la piacevolezza e l'attitudine positiva verso il prodotto; • Facilità di apprendimento: la curva di apprendimento di un utente dal momento che usa la prima volta il prodotto software al momento in cui esegue i compiti fondamentali abbastanza bene; • Facilità di ricordo: la misura in cui le modalità di utilizzo del prodotto vengono memorizzate dall’utente UNITÀ 3 PROGETTARE IL MULTIMEDIA 3. SELEZIONE DEI MEDIA: TESTI, IMMAGINI E AUDIO 3.1. INTRODUZIONE Il punto di vista dell'utente è la prima cosa di cui tenere conto nella progettazione e produzione di un sito web, però ecco una situazione che si può trovare l’utente di fronte a una interfaccia multimediale: • Interfacce misteriose: esistono anche home pages prive di descrizioni esplicite che richiedono un approccio “esplorativo”. In genere un javascript al passaggio del mouse rivela i contenuti dei link misteriosi. • Caricamenti lenti: quando dopo due minuti di attesa ancora permane la scritta, “Loading, please wait”. O quando - peggio - non succede proprio niente. La maggior parte lascia perdere, rivolgendo la sua attenzione a un altro dei tanti siti presenti sul web. • Uso smodato delle tecnologie • Flash, applet java, javascript che scorre nella barra del browser. La pagina sta caricando a fatica e ... Attenzione! è saltato tutto, bisogna ricorre al vecchio e traumatico riavvio o reset del PC (ecco un sito in cui non tornare più). • Home pages per Browser specifici: “Questa pagina è visibile con Explore 5.31 se usate altri browser ecco il link per scaricarlo”. A volte l'ingenuità dei progettisti è quasi disarmante: si aspettavano che qualcuno andasse sul sito della Microsoft, si sobbarcasse il riempimento un form infinito, scaricasse un software da 10 Mb. con un download della durata complessiva di circa sette ore, per poi iniziare l'installazione e riavviare il computer? • ASP senza ritorno: le Active Server Pages hanno moltissimi pregi, ma a chi è capitato di compilare un form di tre pagine scegliere “invia” e poi tornare indietro per scoprire che la pagina se n'è andata per sempre (expired), la cosa è piuttosto seccante. In altre parole occorre passare il doppio del tempo a ricompilare tutto da capo. Quando il tasto “back” non funziona i siti diventano piuttosto scomodi da usare. • Pop-up Windows: iventa intollerabile quando la finestrella si apre per pubblicità, è a malapena sopportabile quando approfondisce il contenuto di una pagina, ma è un profondo e imperdonabile atto di maleducazione quando si apre tutte le volte che si preme un tasto back, o peggio ancora quando ne apre un'altra a sua volta. • La scelta più facile sarebbe quella di cadere nel tranello della tecnologia a tutti i costi, del “facciamo colpo sul cliente”. Mentre, nel costruire schemi di navigazione, grafica e iperbase occorre sempre chiedersi: “come si comporteranno i visitatori, che vantaggi ne trarranno?”. • L’esperienza di navigazione del lato dell’utente si chiama: “user experience” composta da: Comportamento (Che cosa fa l’utente?); Risultato (Che cosa ottiene?); Sensazioni (come si sente?) In tutte le fasi della progettazione occorre sempre avere ben chiari gli obiettivi che si vogliono raggiungere, conoscendo soprattutto le necessità degli utenti, prevedendo i loro comportamenti nel sito. Per evitare tutte le situazione d’errore nella fruizione del contenuto multimediale, è fondamentale preparare e scegliere correttamente le immagini digitali, l’audio, i video, le animazioni e soprattutto il testo nella progettazione. Inoltre, verificare l’usabilità del disegno del sistema ipermediale. Tutto questo per mantenere l’attenzione del nostro utente reale, come altri potenziali. 3.2. PREPARARE IL TESTO Componenti da considerare nel momento della progettazione testuale Si visita un sito alla ricerca dei contenuti: si darà un’occhiata veloce alla parte dello schermo dedicata ai contenuti e solo se questi risulteranno interessanti, si passerà a guardare l’area di navigazione. La comunicazione sul Web deve tenere conto degli aspetti peculiari di questo strumento. Leggere sullo schermo è circa il 25% più lento e faticoso rispetto alla lettura su carta, e il livello dell’attenzione che gli utenti hanno nei confronti della pagina è molto breve, grazie ad un clic, infatti, possono scegliere tra milioni di altre pagine. Per ovviare a questi problemi è necessario quindi seguire le seguenti linee guida: • Essere concisi: il lettore multimediale è disposto a leggere il 50% di informazioni in meno di quante ne avrebbe lette su una versione cartacea. Il problema dell’utilizzo di meno parole, dà molto più valore alle parole stesse; • il colpo d’occhio del testo è importante: meglio evitare brani eccessivamente lunghi, ma scrivere piuttosto paragrafi brevi con due o tre livelli di titoli, usando titoli che abbiano significato anziché titoli ad effetto; per evitare blocchi ti testo compatti, preferire elenchi puntanti o enfatizzare le parole importanti per attirare l’attenzione dell’utente; • usare l’ipertesto per spezzare grandi quantità di informazioni su diverse pagine. Per quanto riguarda l’aspetto linguistico è meglio privilegiare un linguaggio semplice, con strutture linguistiche e lessicali poco complesse. Anche l’uso di metafore è sconsigliabile. Gli utenti fanno largo uso dei motori di ricerca per trovare il materiale o il prodotto che stanno cercando con maggior rapidità. Il sito è solo un’intestazione sul risultato di tali motori di ricerca, è quindi importantissimo usare intestazioni significative. Le stesse intestazioni vengono usate per essere aggiunte alle liste dei “preferiti” e nelle liste cronologiche delle pagine visitate. Il titolo deve produrre il microcontenuto del macrocontenuto ad esso associato, deve essere scritto in un linguaggio semplice, non ambiguo. La prima parola del titolo deve essere la più importante, per questo motivo è meglio non utilizzare articoli. La leggibilità di una pagina è assicurata dalla corretta scelta dello sfondo e del testo, in modo che creino un forte contrasto. Normalmente si ottiene la migliore leggibilità con lo sfondo bianco e testo nero. Meno contrasto si crea, maggiori saranno le difficoltà di lettura. Gli sfondi grafici anche se molto spettacolari, rallentano la lettura perché affaticano la vista nel riconoscimento dei caratteri e delle parole. Le dimensioni del testo devono permettere una facile lettura così come è meglio optare per testi statici, perché il testo che si muove o cambia colore o dimensione è molto difficile da leggere. Per inserire / creare il testo per un sito o applicazione multimediale off-line, c’è il Word, PageMaker, ecc. Inoltre, esiste la possibilità di fare una scansione di un testo esistente. 3.3. PREPARARE LE IMMAGINI 3.3.1. COMPONENTI DA CONSIDERARE NEL MOMENTO DELLA PROGETTAZIONE ICONICA • Immagini bitmap e immagini vettoriali (caratteristiche). • I modelli e i metodi dei colori: HSB = Hue (tonalità), Saturation (saturazione), Brightness (luminosità). Questo modello si basa sul modo in cui il colore viene precepito dall’occhio umano. RGB – Red, Green, Blue (rosso, verde e blu). Questo modello è più frequentemente utilizzato quando si gestiscono i colori con il computer. Il modello CYMK – Cyan, Yellow, Magenta, Black (ciano, magenta, giallo e nero): e quello più frequentemente utilizzato quando si gestiscono i colori con il computer. Il modello Lxaxb – secondo questo modello, che ha la caratteristica di essere indipendente dalla periferica, ogni colore è indiviuato da tre parametri, cioè la luminanza (L), e da due componenti cromatiche, la componente (a) che va dal verde al rosso, e la componente (b), che va dal blu al giallo. Con ciascuno di questi sistemi si può descrivere l’intera gamma di colori (circa 16,7 milioni). • La compressione: LZW = La forma di compressione utilizzata del formato GIF prende il nome di compressione LZW, dalle iniziali dei suoi creatori, Lempel, Ziv e Welch. È un tipo di compressione lossless, senza perdita di informazione ed è particolarmente efficace con immagini con grandi aree di colore uniforme, come per esempio immagini in bianco e nero e icone. Il file GIF ottenuto con questa tecnica di compressione avrà un aspetto completamente identico all’originale. JPEG = Questo formato utilizza invece una forma di compressione lossy. Il file ottenuto avrà quindi perso informazioni rispetto all’originale. Quando si salva un’immagine in formato JPEG è possibile scegliere la quantità di compressione da applicare, come si vede nella seguente figura di Corel PhotoPaint. • Altre forme di compressione: RLE – (Run Length Encoding): supportata dai formati TIFF, Photoshop e da alcuni formati di file Windows, è una tecnica di compressione lossless. ZIP – Questa codifica, supportata come già è stato detto dal formato PDF, è una tecnica di compressione lossless. • Digitalizzare foto e immagini: Fotocamere digitali e scanner. • I software per la grafica bitmap: lavorare con Photoshop. • I software per la grafica vettoriale: lavorare con Illustrator e/o Corel Draw. • Indirizzi on-line che possono aiutare per preparare le immagini: www.adobe.com, www.corel.com, www.macromedia.com, www.font.it, www.freegraphics.com, www.screamdesign.com, www.cooltext.com 3.4. L’AUDIO I suoni si possono associare ai vari oggetti che compongono una pagina Web, facendo in modo che vengo richiamati quando l’utente compie una determinata azione. Per esempi, emettere un suono ogni volta che l’utente passa con il puntatore del mouse su un pulsante. Oppure si può associare un sottofondo musicale direttamente a una pagina Web. I due formati più utilizzati per l’audio digitali sono il formato Wave per la piattaforma Windows, i cui file hanno estensione “.wav”, e il formato AIFF per piattaforma Macintosh, i cui file hanno estensione “.aif”. Sono entrambi formati molto versatili, in grado di supportare suoni mono o stereo, diverse risoluzione e frequenze di campionamento. Sono entrambi particolari tipi di IFF (Interchange File Format), un formato che immagazzina i dati in blocchi di memoria, chiamati “chunk”, costituiti da una serie di byte. Ma il formato che attualmente sta spopolando di più su Internet è sicuramente l’Mp3. Un formato che sfrutta il metodo di compressione omonimo MPEG 1 layer III ed è stato messo a punto dal gruppo di ricerca Fraunhofer IIS che fa parte dell’organizzazione MPEG (Moving Picture Expert Group). Con la compressione MPEG 1 (Mp3) si ottengono risultati incredibili: oggi è possibile raggiungere rapporti di compressione di 1 a 12, il che significa che, se si parte da un file in formato Wave di 10 Mb. si ottiene un file Mp3 di 1,25 Mb, ottenendo un guadagno in termini di dimensioni pari a 8,75 Mb. Un risultato notevole che acquista ancora più importanza se si tiene conto che la qualità del file Mp3 risultante è equiparabile a quella del file Wave di partenza, non ci sono in pratica differenze percepibili all’orecchio umano. Inoltre i file Mp3 presentano un particolare tab: ID3 che permette di inserire nel file il nome o l’autore del brano o altri commenti. Con un programma per l’editing è possibile modificare a piacere un file audio, tagliando, aplicando degli effetti di suono e così via. Un interessante programma è Sound Forge della Sonic Foundry. Sito per scaricare una demo: www.sonicfoundry.com Per inserire suoni si può cercare nella rete o lavorare con prodotti in CD-ROM. Indirizzi per sapere di più: www.harmony-central.com www.samplenet.co.uk www.mp3.com www.mp3italia.com www.syntrillium.com 3.5. I VIDEO E LE ANIMAZIONI 3.5.1. IMMAGINI E FOTOGRAFIE Le immagini e le fotografie richiedono tempi di caricamento lunghissimi. Quando si parla di E-commerce, gli utenti però devono poter vedere le immagini dei prodotti che intendono acquistare, dal momento che non possono toccarli! Per ovviare a questo problema, si metteranno poche immagini di piccole dimensioni nelle pagine generali, nel caso che l’utente abbia veramente interesse nel prodotto potrà, seguendo i link dalla pagina iniziale, trovare foto dettagliate del prodotto selezionato. Esistono diversi formati per “salvare” le immagini da visualizzare, come .jpeg, .tiff, .gif, .bmp, a seconda della definizione che si vuol dare all’immagine e della tipologia dell’immagine stessa. I più diffusi in Internet sono .gif, perché più leggeri da scaricare. 3.5.2. ANIMAZIONI Le immagini in movimento catturano l’attenzione. La nuova tendenza vede le animazioni impiegate quando necessarie e non come ammennicoli per farcire il testo. Vi sono vari tipi di impiego di animazioni che sono utili all’utente per: dare un senso di continuità alle transizioni (ad es. dimostrazioni di tipo scientifico); indicare la direzione delle transizioni (ad es. lo zoom in caso si mostri un dettaglio); illustrare l’evoluzione temporale; mostrare insiemi dati in una stessa porzione di schermo; arricchire presentazioni grafiche; visualizzare strutture tridimensionali; attirare l’attenzione. 3.5.3. FORMATI I file video vengono memorizzati utilizzando diversi formati: o Video for Windows: formato i cui file hanno estensione “.avi” (audio video interleavead) che è stato sviluppato da Microsoft. o QuickTime: è uno dei formati più utilizzati su Internet. È stato sviluppato da Apple e i suoi file hanno estensione “.mov”. Un file QuickTime può essere visualizzato all’interno di un browser utilizzando un appropriato plug-in. o MPEG: questo formato, i cui file hanno estensione “.mpg”, è stato sviluppato dal Moving Picture Experts Group. Le sue caratteristiche di compressione e flessibilità lo rendono particolarmente adatto per i filmati da utilizzare su Internet. o QuickTime Pro: con QuickTime Pro non solo si può riprodurre i filmatiti QuickTime ma anche si può modificarli. Infatti oltre a PlugIn, il software che permette al browser di riprodurre e registrare i filmati QuickTime, QuickTime Pro comprende anche QuickTime Player, un software per l’editing dei filmati. Le estensioni QuickTime, un software di sistema che permette la riproduzione e la modifica dei filmati mediante applicazioni di vario genere, come quelle per l’elaborazione del testo e della grafica e PictureViewer, un software che consente di visualizzare le immagine. La versione Pro di QuickTime si può comprare all’indirizzo: www.apple.com/quicktime Una volta scaricato e installato sul computer, è possibile lanciare e aprire un filmato come l’edizione del file. 3.6. CONCLUSIONI Ecco un appendice di programmi di tipo shareware e freeware che possono essere molto utili per la gestione e l’implementazione del sito, come la creazione e l’animazione di titoli 3D, icone, screen saver, mappe di immagini … Creazione e animazione di titoli 3D: Il primo software presentato è un programma della Ulead. Uno di questi programmi è Cool 3D, utile per creare velocemente titoli 3D animati. La versione shareware del programma si trova: www.ulead.com Creazione di icone: Dmitry G. Kozhinov mette a disposizione di tutti il suo programma shareware “iconed20” per generare in tempo record delle icone. Il programma ImageCarousel (www.screensaver.com) mette a disposizione degli utenti sfondi da scaricare che posso essere utile come sfondi di pagine Web, per esempio. Esistono alcuni software creati specificamente con mappe di immagine (aree sensibile – hotspot) che posso poi essere utilizzate nel sito Web o al interno di un DVD, per esempio. L’indirizzo è: www.globalscape.com. Una volta lanciato il programma, si deve aprire un’immagine (nei formati GIF o JPEG) su cui creare una nuova mappa e nella parte inferiore c’è il codice Html. La selezione dei media è un lavoro molto speciale, dove la variabile “aggiornamento tecnico” è fondamentale. Ricordare sempre le necessità degli utenti e la loro “user experience”. Cercare di elaborare un contenuto testuale interessante e aggiornato. Selezionare correttamente la gamma cromatica (colori) della interfaccia. Per l’audio usare il formato Mp3 e per l’immagine il “gif”. Inserire immagine animate e video d’accordo alla necessità del contenuto e creare un mapping (hotspot) della immagine centrale, ad es. Navigare in modo costante per trovare tutte l’ultime novità e software freeware e shareware. UNITÀ 3 PROGETTARE IL MULTIMEDIA 4. LA VALUTAZIONE EURISTICA 4.1. INTRODUZIONE La valutazione euristica è uno dei principali metodi di “Usability Discount” definiti da Jakob Nielsen per rendere maggiormente snelle e veloci le attività di verifica dell'usabilità. Lo scopo della valutazione euristica è quello di verificare se l'interfaccia del prodotto rispetta i principi fondamentali dell’usabilità (efficacia, efficienza, soddisfazione d'uso, facilità di apprendimento, e facilità di ricordo) e può essere effettuata non appena sono disponibili le prime bozze di interfaccia, anche di tipo cartaceo. Si tratta di un metodo ispettivo che non prevede il coinvolgimento degli utenti finali del prodotto, ma si basa sul giudizio di più esperti di usabilità. Dal punto di vista pratico, la valutazione euristica consiste in una serie di navigazioni, effettuate separatamente da ciascun esperto sul prodotto software, durante le quali vengono valutati sia gli aspetti statici dell’interfaccia (layout delle finestre, etichette, pulsanti, etc.) che di comportamento (logica d’interazione, diagnostici, etc.) rispetto alle linee guida di riferimento. Al termine delle singole sessioni, gli esperti discutono congiuntamente i risultati ai quali sono pervenuti al fine di sintetizzare i principali problemi di usabilità del prodotto valutato e concordare relativamente ad eventuali discrepanze del giudizio. Nielsen raccomanda di effettuare la valutazione euristica impiegando non meno di tre esperti di usabilità, in riferimento ad un numero ottimale che va fa tre a cinque esperti. Da studi da lui effettuati, infatti, si rileva che un solo esperto di usabilità diagnostica circa il 35% dei problemi di usabilità, mentre 5 esperti diagnosticano circa il 75% dei problemi. SUE (Systematic Usability Evaluation): è una metodologia che concorda con l’idea e/o raccomandazione di Jakob Nielsen. MEHEM (MEthodology for Heuristic Evaluation in Multimedia) rivoluziona il concetto di valutazione euristica perché crea un nuovo profilo di professionale per questa attività, risparmiando tempo e denaro. Oggi, è una realtà in certi piani di studi universitarie in Italia, Spagna, Francia, ... 4.2. METODI EMPIRICI E METODI NON EMPIRICI Esistono molteplici metodologie per la valutazione dell'usabilità, ciascuna caratterizzata da un proprio campo privilegiato di indagine, e per questo motivo maggiormente indicata in determinati contesti, in base ai propri vantaggi e svantaggi. Esse possono essere divise in due grandi gruppi: metodi empirici e metodi non empirici: per empirico si intende lo strumento di analisi che richieda la partecipazione di soggetti estranei al progetto di valutazione; parliamo di metodo non empirico, quando non c’è una partecipazione fondamentale degli utenti finali. I metodi euristici di valutazione, sono metodi di facile e rapida applicabilità. Di solito è consigliabile usare i metodo euristici quando si hanno vincoli temporali stretti, nel corso di un progetto di sviluppo, e si può disporre dell’aiuto di un nucleo di esperti di usabilità. Tra i metodi empirici si possono annoverare: o Analisi di gruppo (workshop); o Conversazioni private video registrate; o Diari degli inconvenienti; o Esperimenti controllati; o Esplorazione a coppie; o Focus groups; o Interviste; o Liste di controllo delle funzioni (feature checklist); o Metodo della valutazione; o Osservazioni sul campo; o Questionari; o Registrazioni di utilizzo; o Verbalizzazione di pensieri ed azioni (thinking aloud). I metodi non empirici consistono in: Analisi dei compiti; Analisi delle caratteristiche salienti; Simulazione cognitiva d’uso (cognitive walkthrough); Valutazione da parte di esperti. 4.3. CONFRONTO DI METODI ANALITICI Fra i metodi analitici dell'usabilità dobbiamo citare soprattutto: 1. Cognitive walkthrough 2. Thinking aloud 3. Valutazioni euristiche Sebbene siano sistemi differenti, entrambi utilizzano come abbiamo detto degli esperti che valutano il sito. E' importante sottolineare (e sottolineare al cliente) che questa analisi non viene condotta su basi soggettive, secondo il gusto dell'analista o basandosi su una generica esperienza arbitrariamente maturata. L'analisi viene condotta secondo principi che sono stabiliti su base empirica. Nel caso del cognitive walkthrough si fa riferimento ad una lista delle azioni necessarie a svolgere determinati compiti, verificando sull'interfaccia/prototipo l'esistenza di eventuali problemi rispetto alle previsioni. Thinking aloud (chiamata anche valutazione cooperativa) è una tecnica utilizzata inizialmente nel campo della ricerca psicologica che consiste nel far verbalizzare agli utenti quello che pensano durante l'esecuzione di una attività o compito. Nell'applicazione del thinking aloud per la valutazione dell'usabilità, l'utente prova ad eseguire delle attività in interazione con il prodotto software e verbalizza tutto quello che pensa durante l'interazione. Seduto vicino all'utente, un osservatore registra (grazie al supporto di una videocamera o, semplicemente, con carta e matita) quello che l'utente dice e esegue sull'interfaccia, con particolare riferimento alle difficoltà che incontra. L'osservatore ha un ruolo passivo e non interviene durante la sessione di interazione. La valutazione euristica invece valuta l'interfaccia sulla base di liste di euristiche. Tali euristiche sono principi che hanno un elevato valore predittivo perché rappresentano la sintesi dei problemi di usabilità più frequenti organizzati in categorie. Le euristiche di Nielsen, ad esempio, sono ottenute tramite analisi fattoriale su una base di 249 problemi riscontrati in studi di vario tipo. I metodi analitici sono particolarmente utili in fasi precoci del progetto, quando i problemi di usabilità sono talmente numerosi che non avrebbe senso sprecare dei soggetti (che rappresentano un notevole costo) per rilevare errori che potrebbero essere facilmente identificati anche da uno o più esperti. 4.5. PRINCIPI EURISTICI PER UN SITO I principi cui un sito deve rispondere per essere definito “usabile” quindi efficace e di successo sono sintetizzati nel seguente elenco: Realizzare un dialogo semplice e naturale; Semplificare la struttura dei compiti; Agevolare il riconoscimento piuttosto che il ricordo; Fornire feedback in modo da rendere visibile lo stato del sistema; Prevenire gli errori di interazione e facilitarne il recupero; Essere consistenti; Parlare il linguaggio dell'utente; Agevolare la flessibilità di utilizzo e l'efficienza dell'utente; Fornire help e manuali. 4.6. MISURA E METRICHE Il termine “metrica” viene adoperato in ingegneria dell’usabilità per indicare i dati oggettivi di misurazione, che vengono distinti a quelli soggettivi. È bene osservare che quando si parla di dati soggettivi non si tratta di “opinioni”. I metodi fin qui descritti servono appunto a distinguere tra opinioni e “fatti”. Tuttavia, la possibilità di raccogliere anche dati oggettivi è un plus che avvalora e rafforza i risultati delle analisi basate sugli altri dati. Tra i dati oggettivi conviene distinguere quelli ottenuti con il testing e le osservazioni, da quelli ricavati dai dati di log conservati nel server del sito, a partire dal momento in cui viene messo in rete (non è corretto raccogliere dati di traffico nel sito quando non hanno un vero valore d’uso per la gestione del sito, ad. esempio). Dati oggettivi derivati da compiti strutturati: Se i compiti assegnati in un test hanno la caratteristica di essere riproducibili, e cioè ripetibili con più soggetti dal profilo simile (gruppi di circa 10 utenti), allora si riesce anche a dare valori numerici ad alcune prestazioni. Essendo l’usabilità determinata da diverse caratteristiche, è ovvio che esistono diverse metriche di usabilità e, per ciascuna metrica, diverse misure. Riprendendo i vari aspetti che definiscono l'usabilità e partendo proprio da quelli definiti dalla norma ISO 9241-11 “Ergonomic requirements for office work with visual display terminals - Guidance on usability”, si possono individuare le metriche più comuni: Efficacia: in cui un utente è in grado di raggiungere l'obiettivo di un compito in modo corretto e completo; Efficienza: la quantità di risorse spese in relazione all'efficacia; Soddisfazione d'uso: la piacevolezza e l'attitudine positiva verso il prodotto; Facilità di apprendimento: la curva di apprendimento di un utente dal momento che usa la prima volta il prodotto software al momento in cui esegue i compiti fondamentali abbastanza bene; Facilità di ricordo: la misura in cui le modalità di utilizzo del prodotto vengono memorizzate dall'utente. Per quanto riguarda le misure, quelle tipiche sono le seguenti: Tempo impiegato per eseguire i compiti; Numero di compiti completati in modo corretto e completo entro un tempo prestabilito; Numero di errori commessi e loro gravità; Ricorrenza degli errori e loro tipologia; Tempo speso per recuperare gli errori commessi; Tempo speso in esplorazione del prodotto; Tempo speso in inattività; Numeri di accessi all'help o di ricorso all'assistenza; Numero e tipo di comandi usati dall'utente per l'esecuzione del compito; Numero e tipo di comandi mai usati dall'utente durante l'esecuzione del compito; Numero di volte che l'utente esprime chiaramente frustrazione o soddisfazione ecc....; La scelta delle metriche e delle misure da raccogliere dipende, ovviamente, dagli obiettivi di usabilità da verificare e dall'impianto di verifica impostato. Assumendo, ad esempio, che si debbano raccogliere dati metrici sull'efficienza d'uso, si stabilisce che questa metrica è data dal tempo necessario agli utenti per eseguire una serie di compiti. Occorre quindi decidere in modo preciso cosa si intende per inizio e fine del compito, ovvero quando far partire e quando fermare il conteggio del tempo. In questo caso, è implicito che il metodo di raccolta dati è quello del test in laboratorio. Ad esempio, MEHEM utilizza un insieme di metriche proprie MECEM (Metrics for the Communications Evaluation in Multimedia). 4.6.1. VALUTAZIONE QUALITATIVA VS. ANALISI QUANTITATIVA Quando è il caso di procedere ad una valutazione qualitativa e quando, invece, è più opportuno misurare l'usabilità? La raccolta e l'analisi metriche ha dei costi superiori (richiede un numero maggiore di utenti e più tempo per la fase di analisi dei risultati con una metodologia “pro” Nielsen), ma è anche vero che spesso i numeri parlano meglio delle parole. Nella decisione tra l'uno e l'altro approccio si può adottare il seguente criterio: se l'obiettivo fondamentale della verifica è quello di individuare i punti critici del prodotto che impattano negativamente sull'interazione utente-prodotto, allora una valutazione qualitativa è la cosa migliore; se, oltre al miglioramento del prodotto, persistono altre necessità, come ad esempio, - occorre tracciare l'evoluzione del livello di usabilità del prodotto, - occorre confrontare il livello di usabilità del prodotto rispetto ad altri prodotti simili, - occorre fornire dati incontrovertibili per agevolare la scelta tra diverse soluzioni di progettazione, allora è importante anche la rilevazione metrica. Quello che va comunque sfatato è il mito del “numero magico”: non esiste un numero unico in grado di illustrare in modo compiuto la complessità dell'usabilità. Basta pensare al rapporto tra l'efficacia e l'efficienza: Un prodotto può essere realizzato in modo da consentire l'esecuzione corretta e completa di una attività, perché, ad esempio, utilizza Wizard che guidano nella esecuzione del compito e quindi riducono le possibilità di errore. Ma se nella suddivisione dei contenuti dentro le singole pagine o finestre non si tiene conto dell'unità di lavoro, si rischia di spezzettare l'attività in tanti passi operativi, ovvero si costringe l'utente a navigare attraverso un numero eccessivo di finestre o pagine. Questo compromette ovviamente l'efficienza dell'utente, oltre che il suo buon umore (e chissà perché mi vengono in mente le tante pagine attraverso le quali occorre passare quando si vuole fare una registrazione on-line a uno dei tanti servizi gratuiti di posta elettronica e di accesso ad Internet). 4.6.2 LABORATORI PER LA VALUTAZIONE EURISTICA NEL MONDO... Per vedere come sono fatti i laboratori di usabilità, fai un tour virtuale presso i laboratori della Microsoft, della Sun, della IBM, della Siemens e, in Italia, di Telecomitalialab (http://163.162.17.244/servicelab/frame.htm). La valutazione euristica è utile per migliorare la fruizione di un sistema ipermediale on-line e off-line. Non esiste attualmente un sistema ipermediale esento della valutazione euristica. La valutazione euristica è capace di trovare il maggior numero di errori su il design di un sistema ipermediale. MEHEM è un metodo di valutazione economica e veloce per verificare l’usabilità del sistema. Per sapere di più: www.useit.com/alertbox www.usability.org www.usableweb.org www.usabile.it www.ucc.ie/hfrg/questionnaires/sumi www.stcsig.org/usability www.cs.umd.edu/hci Concludendo, tutti questi attributi di qualità per l’editoria multimediale sono stati sviluppati alla fine del secolo scorso da 2 gruppi di studio universitari in Europa, per 2 metodologie di valutazione di sistemi interattivi: SUE e MEHEM. La prima richiede il laboratorio, mentre la seconda no. Perciò, MEHEM è più economica da applicare. MEHEM rappresenta l’intersezione della comunicazione con l’informatica. In questo contesto bisogna inserire gli attributi di qualità per i sistemi multimediali, in cui la componente comunicativa nel secolo XXI prevale sul resto degli elementi di un sistema ipermediale. copyrigh © 2001 - Francisco V. Cipolla Ficarra, PhD - Bergamo, Italy & Barcelona, Spain (HCI Lab © 1997)

Flag Counter