ACCESSIBILITA' TESTUALE

(SENZA IMMAGINI)

 

UNITÀ 1

LE TECNOLOGIE DELLA RETE

1. LA STORIA DELLA RETE: ALCUNI CENNI


1.1. LA STORIA DI INTERNET: ARPA

Le origini di Internet risalgono alla fine degli anni’50, quando, in epoca di guerra fredda, la messa in orbita del primo satellite artificiale (lo Sputnik) da parte dell’Unione Sovietica, provocò non poche inquietudini in ambito occidentale, in particolare negli Stati Uniti. In questo clima di timore per un possibile attacco nucleare, la contesa tra Stati Uniti e Unione Sovietica per la supremazia scientifica e tecnologica, portò gli USA alla creazione di un’agenzia per la ricerca e lo sviluppo scientifico: l’ARPA (Advanced Research Projects Agency).

Inizialmente, questa agenzia si occupò di ricerca in ambito aerospaziale, visto che il motivo principale della sua creazione fu il lancio della Sputnik. Però, pochi mesi dopo, con la creazione della NASA, tutti i programmi spaziali vennero trasferiti dall’ARPA alla NASA. Di conseguenza, per poter continuare ad esistere, era necessario che l’ARPA trovasse un nuovo ambito di lavoro; fu così che questa agenzia cominciò ad occuparsi dello studio dei calcolatori, un campo fino ad allora poco esplorato; così facendo, essa si staccò completamente da quelle che erano le sue motivazioni originarie, ovvero motivazioni di tipo militare. A questo punto è necessaria una precisazione: spesso si dice che Internet sia nata come rete militare; questo è un mito da sfatare, anche se ha comunque un fondo di verità.

In effetti, si è vero che l’impulso iniziale allo sviluppo di una rete di comunicazione tra computer fisicamente distanti venne dall’ambiente militare, è pur vero che le varie innovazioni che hanno portato la rete ad essere come noi la conosciamo oggi, sono nate all’interno di gruppi di ricerca non legati all’ambito militare. A questo proposito è significativa un’intervista rilasciata nel ’95 da Charles Herzfeld direttore dell’ARPa negli anni ’60, a Scientific American, in cui egli parla di ARPAnet, una rete sperimentale di computer creata nel 1969 dall’agenzia ARPA:

“… ARPAnet non nacque per assicurare le comunicazioni militari in caso di guerra nucleare – questa è un’impressione sbagliata piuttosto comune – ma piuttosto per collegare computer e ricercatori delle università, assistendoli nel condurre ricerche comuni sui computer e sulle reti di comunicazione, e per usare questi computer nelle ricerche di base. Certamente eravamo consapevoli delle applicazioni potenziali di ARPAnet per la sicurezza nazionale, ma gli sforzi per usare tale tecnologia a questo fine vennero solo molto dopo”.

La “leggenda” di una rete militare costruita con lo scopo di mettere gli Stati Uniti in condizioni di affrontare una guerra nucleare, fu alimentata da un articolo apparso sulla rivista Time, che fu poi smentito da una lettera, mai pubblicata, inviata alla rivista da Robert Taylor, capo di uno degli uffici ARPA.
Perciò Internet, più che una conquista militare, è stata una conquista umano e culturale di un gruppo di persone che hanno creduto fino in fondo nel loro progetto di creare una rete che permettesse la condivisone di risorse e lo scambio di informazioni.

1.2. LA STORIA DI INTERNET: L’ARPA E LA RAND CORPORATION

L’ARPA ebbe il pregio di riunire alcuni tra gli scienziati più brillanti d’America, ai quali, nel 1962, si aggiunse J.C.R. Licklider, che rimase molto poco all’ARPA, ma che lasciò un segno molto profondo; in effetti, appena arrivato, progettò la creazione di una rete di collegamenti tra i principali centri di ricerca e istituzioni universitarie degli Stati Unite.
Oltre all’ARPA, esisteva un altro centro legato alla ricerca militare, la RAND Corporation, che nel 1959 assunse Paul Baran, un ingegnere che si occupò della risoluzione di un problema di ordine militare, ossia, come mantenere attiva una rete di comunicazioni anche in caso di attacco nucleare.

Baran stabilì che una rete sicura doveva possedere due caratteristiche:

  1. Decentramento, ovvero la mancanza di un unico, ben preciso centro di controllo e gestione, che sarebbe sicuramente stato il bersaglio di attacchi nemici in caso di guerra. Il decentramento avrebbe permesso al messaggio di compiere vari percorsi per giungere a destinazione, perciò se un nodo della rete fosse stato distrutto, il messaggio avrebbe comunque potuto raggiungere la destinazione passando per altri nodi.
  2. Suddivisione del messaggio da inviare in più parti, che, secondo Baran avrebbero potuto viaggiare separatamente all’interno della rete, e poi ricomporsi una volta giunte a destinazione.

Purtroppo queste idee di Baran Trovarono una forte opposizione all’interno della comunità scientifica; perciò nel 1965 egli rinunciò al suo progetto per dedicarsi ad altri studi.
Entrambe le caratteristiche individuate da Baran saranno poi alla base del funzionamento di Internet.

1.3. BARAN E DAVIES: L’AMERICA E L’INGHILTERRA

Negli anni ’60, quando Baran rinunciò al suo progetto di rete distribuita, Donald Watts Davies, un fisico che all’epoca lavorava per il National Physical Laboratory in Inghilterra, giunse a conclusioni molto simili a quelle di Baran, anche se non era a conoscenza degli studi fatti da quest’ultimo.

Nel 1966, Davies organizzò una conferenza con lo scopo di rendere pubblico il suo studio riguardante una rete distribuita, con caratteristiche simili a quelle individuate da Baran. In effetti, anche Davies parlò della necessità di suddividere il messaggio in più parti, da lui denominate “pacchetti” (packets); e il sistema di comunicazione che si basava su questo principio fu da lui chiamato “commutazione di pacchetto” (packet switching). Alla fine della conferenza, Davies fu avvicinato da un americano, impiegato presso il ministero della difesa USA, che gli parlò degli studi studi effettuati da Baran, di cui Davies non era a conoscenza. Tutte queste idee verranno poi riprese e porteranno nel 1969 alla creazione di ARPAnet, l’antenata di Internet.

1.4. LA NASCITA DI ARPANET

Nel 1966, Robert Taylor, che aveva conosciuto Licklider qualche anno prima, divenne capo di uno degli uffici ARPA. Egli si rese ben presto conto di quanto fosse assurdo che i computer dei vari uffici dell’ARPA non potessero comunicare tra loro e condividere le risorse.

Perciò riprese l’idea di Licklider di far interagire i computer in una rete, e riuscì ad ottenere un finanziamento per questo progetto da Charles Herzfeld, uno dei direttori dell’ARPA. Taylor chiamò alla sovrintendenza del progetto Larry Roberts, un giovane informatico; dopo aver assistito ad una conferenza in cui si parlava delle idee di Davies (riguardo la commutazione di pacchetto) e di Baran, Roberts decise che la rete dell’ARPA avrebbe dovuto essere una rete a commutazione di pacchetto.

Inoltre, egli tenne conto dell’importante contributo di Wesley Clark, che propose di non collegare direttamente i computer tra loro, visto che modelli di computer diversi non erano in grado di comunicare l’uno con l’altro. L’idea di Clark era quella di creare una sottorete di computer dedicati alla gestione del traffico che parlassero tutti lo stesso linguaggio (questo tipo di computer fu denominato IMP, ovvero Interface Message Processor).

Ogni nodo della rete sarebbe stato collegato a un IMP della sottorete, e così esso avrebbe dovuto imparare solo il linguaggio della sottorete, anziché i linguaggi di tutti gli altri nodi a cui avrebbe dovuto essere connesso. Le risorse e il finanziamento dell’ARPA, i risultati degli studi di Davies e Baran, l’idea di Clark per riso0lvere i problemi di incomunicabilità tra computer, l’iniziativa di Roberts; tutto ciò fu determinante per la creazione della rete ARPAnet, che iniziò nel 1969.

1.4.1. LA REALIZZAZIONE DEL PROGETTO ARPANET

Nel 1968, Roberts rilasciò un documento in cui venivano descritte le caratteristiche che dovevano avere gli IMP, e questo documento venne inviato alle varie compagnie interessate a costruire questo tipo di computer.

Parecchie compagnie, tra cui anche l’IBM, sostennero l’impossibilità di costruire una rete del genere; altre, invece, si dichiararono disposte a realizzare il progetto degli IMP; tra questi ultime c’era la BBN (Bolt Beranek and Newman), una piccola ditta di Cambridge, alla quale fu affidato l’appalto. Intanto, nelle università che sarebbero state collegate alla rete ARPAnet, erano in corso vari lavori di adattamento che avrebbero permesso ai computer universitari di collegarsi agli IMP.
Nel settembre del 1969, il primo IMP fu consegnato alla University of California, “Los Angeles” (UCLA), e fu collegato all’elaboratore Sigma 7. Il mese seguente fu installato il secondo IMP, allo Stanfor Research Institute (SRI) in California, dove fu collegato a un SDS 940. In seguito vennero collegati in rete anche i computer dell’Università di Santa Barbara (UCSB) e dell’Università dello Utah.

1.5. LA STORIA DEL WEB

Le origini del World Wide Web risalgono al 1990, quando Tim Berners-Lee, un ricercatore inglese che all’epoca lavorava per il CERN di Ginevra (il noto centro di ricerca sulla struttura della materia) presentò al preside del centro una relazione intitolata “World Wide Web: Proposal for a Hypertext Project”.
In realtà, gli studi che portarono a redigere questo documento iniziarono negli anni’80. In quegli anni, Berners-Lee cominciò a lavorare a un progetto chiamato “Enquire”, con lo scopo di creare “un sistema ipermediale distribuito, ovvero un oggetto in grado di gestire in maniera organica documenti sotto forma di testo, suono ed altro localizzati in computer geograficamente distanti nel mondo”.

Nel 1989, il progetto denominato “World Wide Web: Proposal for a Hypertext Project” era pronto, e Berners-Lee lo presentò ai dirigenti del CERN, ma ottenne solo rifiuti. La sola persona che si rese conto delle enormi potenzialità di questo progetto fu Cailliau, un ingegnere del CERN. I due decisero di riscrivere parte del progetto, che nel 1990 fu ripresentato e approvato.
Berners-Lee cominciò allora a lavorare alla revisione del progetto, stabilendone le specifiche ufficiali: infatti ideò un nuovo protocollo, chiamato HTTP (Hyper Text Transfer Protocol). Però al CERN continuava a regnare un certo scetticismo riguardo alla realizzazione di questo progetto; per questo motivo, Berners-Lee decise di mettere a disposizione gratuitamente sulla rete il software da lui ideato, e le risposte non tardarono ad arrivare, in particolare dall’America, più aperta a questa idea.

Nel 1993 il progetto di Berners-Lee ricevette un impulso decisivo al suo sviluppo dal National Center for Supercomputing Applications (NCSA) dell’Illinois; infatti Marc Andressen ed Eric Bina (oggi noti per aver fondato Netscape nel 1994), che all’epoca lavoravano per questo centro, basandosi sui lavori di Berners-Lee, svilupparono un’interfaccia grafica di facile utilizzo, chiamato “Mosaic”, che permetteva di accedere ai documenti presente sul Web.

A Mosaic sono seguite altre interfacce grafiche, che hanno migliorato le prestazioni del Web, rendendo il suo utilizzo sempre più semplice. Ciò ha contribuito all’enorme diffusione che ha interessato e sta interessando tutt’oggi il Web. Le caratteristiche che hanno fatto del Web una vera e propria rivoluzione in ambito telematico.

In realtà, gli studi che portarono a redigere questo documento iniziarono negli anni’80. In quegli anni, Berners-Lee cominciò a lavorare a un progetto chiamato “Enquire”, con lo scopo di creare “un sistema ipermediale distribuito, ovvero un oggetto in grado di gestire in maniera organica documenti sotto forma di testo, suono ed altro localizzati in computer geograficamente distanti nel mondo”.

 

1.6. EVOLUZIONE DEI DIVERSI MEDIA

Cosa? Chi? Quando?

<< Home Page >>

 

UNITÀ 1

LE TECNOLOGIE DELLA RETE

2. FONDAMENTI DELLA COMUNICAZIONE DEI DATI

2.1. INTRODUZIONE

Il nuovo millennio si apre sotto il segno della comunicazione, intesa nei suoi aspetti più innovativi in quanto portatori di una rivoluzione dei modelli di relazione tra persone, i cui effetti vanno molto al di là della crescita nel mercato dell’Information & Communications Technology (ICT).

I nuovi paradigmi di comunicazione legati alla connettività globale, sommati alla continua crescita della domanda di servizi di mobilità (basta pensare la realtà della telefonia mobile dieci anni fa), allargano le occasioni di contatto ma anche le modalità e sopratutto la “qualità” delle relazioni, rendendo attuale il disegno della Società dell’Informazione. Questa Società dell’Informazione funziona come un sistema che sulla disponibilità e lo scambio della conoscenza fonda i presupposti del proprio sviluppo futuro. Certamente che questo processo è destinato a consolidarsi a breve-medio termine grazie alla convergenza attesa dei servizi on line e mobile su un’unica piattaforma integrata, su cui si svilupperà l’accesso universale ai servizi di comunicazione.

L’evoluzione quindi non è solo tecnologica ed economica: emergono nuove professioni (ad esempio, al interno della “corretta” gestione di un sito oggi c’è il Web Master, Web Content, Web Designer, ecc., ecc.), si allargano le opportunità imprenditoriale (piccole e mediane aziende/industrie di prodotti e servizi multimediali), la categorie di utenti sinora poco attratti dal mondo ICT salgono alla ribalta (si peni allo sviluppo del mercato consumer di PC multimediali). Tutto questo grazie ad un’offerta capace di indirizzare più efficacemente i bisogni e la capacità di spesa di questi segmenti per il gran pubblico. Ad attrarre questi utenti non è solo il fattore pubblicità, ma anche lo sviluppo di applicazioni on line e off line, dove l’informazione / dato è il pilastro basilare. Ma che cosa è un dato dal punto di vista della teoria della comunicazione?

2.2. I DATI E LA COMUNICAZIONE

Per comprendere uno dei modi di presentare gli elementi minimi della comunicazione: DATI - PROCESO - INFORMAZIONE

I disturbi, rumore o interferenze sono eventi indesiderati, solitamente esterni al processo. Solitamente è proprio il canale ad essere colpito dal rumore. Allora possiamo fare due importanti osservazioni:

In un processo di comunicazione telefonica (telefono fisso) tra due persone, possiamo distinguere:

Allora tutto questo ci pone di fronte a due aspetti fondamentali per la teoria della comunicazione: Il primo è legato alla possibilità di “misurare” l’informazione mentre il secondo riguarda la necessità di “codificare” il messaggio in maniera opportuna. Avendo stabilito quali sono gli elementi comuni a ogni processo di comunicazione, vedremo quali caratteristiche essi dovranno avere per potere realizzare le reti di scambio di informazioni viste. Parliamo di comunicazione dei dati perché sono proprio i dati che costituiscono il messaggio, ossia, l’insieme delle informazioni da trasmettere. Se il nostro riferimento è il computer, dobbiamo considerare i dati in relazione al modo in cui essi vengono rappresentate all’interno del computer.

2.3. DATI

Una maniera per definire brevemente un dato nella teoria della comunicazione è questa: “Un dato è una sequenza ordinata di bit”. Con questa definizione se prescinde dal significato del messaggio. Cioè, dal punto di vista della teoria della comunicazione non interessa sapere se i dati trasmessi rappresentano le istruzione di un programma, o il file di una tabella, o un documento Word, pero dal punto di vista del calcolatore è fondamentale per un corretta elaborazione. Un classico esempio può essere sapere il tipo di dato all’interno di un database per un libro:

CODICE; TITOLO; AUTORE; LINGUA; ANNO; PUBBLICAZIONE …
num., alfanum., alfanum., alfanum., num., alfanum.

Un dato può essere informazione, ma un’informazione può essere un nuovo dato se c’è previamente il feedback o retro alimentazione del processo di comunicazione.

2.4. MISURARE LA COMUNICAZIONE DEI DATI

In ogni processo di comunicazione, il messaggio può essere valutato in base a una determinata caratteristica o a un particolare punto di vista:
Quando ci apprestiamo a guardare un telegiornale alla TV, ci aspettiamo per esempio di ricevere “buone” notizie o una “buona” qualità sonoro quando si guarda un film nel cinema. In questi casi, giudicheremo le informazioni ricevute buone o cattive a seconda che siamo confermate o meno le nostre aspettative: diamo allora una valutazione qualitativa del messaggio.

In ambito matematico/informatico questo tipo di valutazione non riveste particolarmente interesse: al fine di progettare al meglio un sistema di comunicazione è sicuramente più importante valutare il messaggio da un punto di vista quantitativo.
Certamente, ecco che il problema è sempre misurare la quantità di informazione relativa al messaggio generato da una sorgente e di fissarne una unità di misura (nel nostro caso, attributi di qualità per l’editoria multimediale).

Quando si fa la previsione del tempo di domani, il meteorologo ricava utili informazione dalla situazione meteorologica odierna, o dalla sua evoluzione negli ultimi giorni. Tali informazioni ridurranno in certo senso l’incertezza legata all’evento che ci interessa.

Ecco, allora che c’è un legame che intercorre tra la misura dell’informazione contenuta in un messaggio e l’incertezza che esso elimina. E allo stesso modo si può affermare che: “la quantità d’informazione relativa a un evento è strettamente legata alla probabilità che l’evento ha di verificarsi”. Per concludere, c’è un esempio classico su questo argomento: Quando siamo fermi a un semaforo posizionato sul “giallo” sappiamo con certezza che successivamente si posizionerà sul “rosso”. L’uscita dell’evento “rosso” non reca con sé nessuna informazione rilevante.

 

<< Home Page >>

UNITÀ 1

LE TECNOLOGIE DELLA RETE

3. IL MESSAGGIO BINARIO E LA SUA RAPPRESENTAZIONE

3.1. INTRODUZIONE

Risulta molto importante nei processi di comunicazione la ricerca e la progettazione del codice e cioè, un “metodo” che consenta di rappresentare l’insieme dei simboli con cui è possibile formare i messaggi della sorgente (alfabeto della sorgente) mediante un altro insieme di simboli (alfabeto codice) più facilmente trasmettibili.

I nuovi paradigmi di comunicazione legati alla connettività globale, sommati alla continua crescita della domanda di servizi di mobilità (basta pensare la realtà della telefonia mobile dieci anni fa), allargano le occasioni di contatto ma anche le modalità e sopratutto la “qualità” delle relazioni, rendendo attuale il disegno della Società dell’Informazione.

Questa Società dell’Informazione funziona come un sistema che sulla disponibilità e lo scambio della conoscenza fonda i presupposti del proprio sviluppo futuro. Certamente che questo processo è destinato a consolidarsi a breve-medio termine grazie alla convergenza attesa dei servizi on line e mobile su un’unica piattaforma integrata, su cui si svilupperà l’accesso universale ai servizi di comunicazione.

Tutto questo trova una soluzione con la teoria dei codice. Questa teoria cerca di eliminare completamente gli errori introdotti dal rumore e quella di mantenere alta la velocità di trasmissione.

Ecco come sono nati codici che permettono, a scapito di un aumento della ridondanza, di individuare a livello di destinazione l’eventuale presenza di un errore nel messaggio (codici rilevatori – error detecting codes), o addirittura di rilevare errori e correggerli automaticamente (codici correttori – error correcting codes). Una situazione più semplice è quella in cui l’alfabeto della sorgente e quello del codice sono equipollenti, ossia, formati dallo stesso numero di simboli, poiché in tal caso è sufficiente associare a ogni elemento del primo alfabeto, uno del secondo.

Ma nella comunicazione umana questo non è cosi di facile. Dal punto di vista scritto e d’accordo a Saussure un segno è composto da un significante e un significato. Ad esempio, per studiare il significato dell’annuncio pubblicitario su un giornale digitale, è necessario partire dall’interrelazione dei differenti segni, parole o immagini che ne costituiscono la manifestazione. Altro aspetto che può complicare di più questa situazione è la fonetica, come la differenza della “c”, “s” e “z” in Spagna.
Invece matematica, geometria, chimica … (scienze formali) risulta più facile trovare una equipollenza. Ad esempio, l’alfabeto greco per la geometria:

3.2. I CODICI

In ogni codice dovremo riconoscere i seguenti insieme:

A seconda degli elementi rappresentabili tramite questi insiemi, saremo in grado di suddividere i codici in codici “numeri” e codici “alfanumerici”. A titolo esemplificativo, proviamo a considerare due codici:

Nel primo caso i simboli sono le lettere dell’alfabeto più i segni di punteggiatura, le parole sono le sequenze di simboli che hanno senso compiuto, e le regole sono quello grammaticali e sintattiche.

Nel secondo caso, invece, i simboli sono le cifre da 0 a 9, le parole sono i numeri componibili con quelle cifre e le regole sono quelle della comune aritmetica.

A titolo riassuntivo, possiamo dire che in ogni codice:

3.3. LA COMUNICAZIONE DIGITALE NELLA HUMAN-COMPUTER INTERACTION: SISTEMA BINARIO

Il problema, invece, diviene più complesso nel caso in cui il numero dei simboli dell’alfabeto della sorgente e dell’alfabeto codice sono diversi, come accade nella comunicazione / interazione tra uomo e computer, in cui tutti i caratteri del nostro lessico devono essere codificati attraverso due soli simboli: zero e uno (codice binario) per generare alla fine il messaggio binario.

All’interno del calcolatore vengono usati per memorizzare le informazioni dei dispositivi a due stati (1 e 0), per utilizzare i quali è necessario che un qualsiasi simbolo della sorgente venga codificato in una sequenza di bit. I principali fattori che hanno influenzato questa scelta, a prima vista non molto conveniente, sono stati:

  1. Efficienza: i calcoli con numeri binari vengono effettuati da una macchina più rapidamente.
  2. Economicità: la semplicità di funzionamento dei dispositivi a due stati induce un minor costo.
  3. Affidabilità: l’utilizzo di soli due livelli discreti garantisce la massima separazione tra gli stati e riduce al minimo la possibilità che un qualsiasi inconveniente porti il sistema a interpretare uno stato al posto di un altro.

3.4. STRUTTURE FISICHE DELL’INFORMAZIONE DIGITALE

Tra le varie strutture d’informazione utilizzabili c’è una che riveste particolare importanza: l’unità di informazione che può essere trasferita con una sola operazione tra i componenti interni del calcolatore, detta parola o word. Questa struttura molto spesso risulta coincidere di un’altra unità d’informazione di lunghezza fissa: il byte (8 bit), che viene anche usato come unità di misura per indicare la capacità di dispositivi o supporti di memorizzazione utilizzando opportuni multipli:

Kbyte = 1.024 byte
Megabyte = 1024 x 1024 byte (1.048.576 byte) aprossimatamente 1.000.000 byte
Gigabyte aprossimatamente 1.000 Megabyte
Terabyte aprossimatamente 1.000 Gigabyte

Questa informazione è “utilissima”, ad esempio per mandare e ricevere dati “on-line”. Un generico sistema di numerazione è costituito da:

Nei sistemi di numerazione posizionali alcune delle regole che stanno alla base del conteggio sono le seguenti:

3.5. L’ULTIMO CODICE NATO ALL’INTERNO DEL WEB: FACCINE

È nato un ricco dizionario di termini simbolici, detti «emoticons» (letteralmente «icone emotive») o «smilies» (faccine).
Il dizionario continua a crescere, con simboli sempre più sofisticati (animazione 2D e 3D) per esprimere tutti i sentimenti nelle loro più sofisticate sfumature. E ci sono siti in rete dove si possono aggiungere le proprie invenzioni:

Windweaver.com/emoticon

In realtà, le faccine che si usano per davvero sono alla fine sempre le stesse e si ottengono digitando pochi simboli sulla tastiera del computer, che letti di traverso ponendo il lato di sinistra in alto, disegnano espressioni del viso: i due punti sono gli occhi, il trattino è il naso, la parentesi è la bocca. Quindi:
:-) Contento

:-( Triste

;-) Strizzatina d’occhi (ironica)

:-o Shock/sorpresa

Tra i top, c’è

|-) Faccina che dorme

8-) Faccina con gli occhiali

:-| Faccina annoiata

;-( Faccina che piange

[] Abbraccio

:-D Risata

Oggi, l’ultima moda è il salto alla telefonia mobile, però sono più complesse o complete:

oo Un raggio di luce nel messaggio.

(:-: Messaggio indicante che una persona è molto triste.

+<:-oe Messaggio a proposito di frati o suore.

=0== Messaggio a proposito di un Messicano su una ferrovia.

=t== Messaggio a proposito di un messicano su un treno.

<<<<(:-) Messaggio da un venditore ambulante.

(:>-< Messaggio da un ladro: Occhio!!!.

:-{ Conte Dracula.

=|:-)= Zio Sam.

:~i Fumando.

:~j Fumando e sorridendo.

:/i Vietato fumare.

:-> Sono VERAMENTE felice.

(-_-) Sorridere sotto i baffi.

2B|^2B Messaggio a proposito di Shakespeare.

#:-) Sorriso da qualcuno con i capelli arruffati.

<< Home Page >>

UNITÀ 1

LE TECNOLOGIE DELLA RETE

4. COMPONENTI PRINCIPALI DELLA RETE

Oggi, il modo di comunicare più comune e sviluppato tra gli utenti è quello che sfrutta le linee telefoniche nazionali.
Vi sono punti di accesso, chiamati “provider di Internet”, che hanno server che forniscono servizi di autenticazione, hanno la facoltà cioè di riconoscere nomi e password personali, e hanno accessi diretti alla grande rete.
La finalità di tutto questo è che ci si collega telefonando a numeri urbani attraverso un modem, che è un MODulatore / DEModulatore di segnale analogico/digitale.

Il modem (interno e/o esterno) ha il compito di convertire i segnali digitali del computer in segnali analogici trasferibili sulla linea telefonica (modulazione) e di convertire i segnali analogici in arrivo nella corrispondente sequenza di bit (demodulazione). Le linee telefoniche infatti sono linee attraversate da un segnale analogico, mentre gli elaborati codificano, come sappiamo, i dati in sistema digitale. Ma attenzione, perché ad oggi non tutte le linee telefoniche sono analogiche (si sono sviluppate linee che sfruttano le tecnologie digitali). La ISDN è appunto un tipo di linea interamente digitale e necessita quindi per la connessione di modem ISDN. La linea ISDN offre una prestazione in termini di quantità molto più veloce, perché è composta di due canali di dati da 64 Kb. ciascuno.

4.1. LA POSTA ELETTRONICA

La posta elettronica, in termine tecnico detta e-mail, garantisce una comunicazione ‘epistolare’ istantanea grazie ad appositi server e appositi protocolli chiamati SMTP () e POP (), dove ogni utente si riserva un nome e una password per la propria casella presso un domino registrato, per esempio: human.computer.interaction.bergamo@gmail.com / human-computer interaction@gmail.it / human-computer interaction bergamo@ficarra.it / hci.bergamo@gmail.com / chi.bergamo@gmail.com / chi.unibg@gmail.it / hci.unibg@gmail.it

Il simbolo @ che si legge comunemente ‘at’ – dall’inglese (presso) - o chiocciola, definisce attraverso quale server si può raggiungere e lasciare messaggi indirizzati alla casella specificata. Esistono particolari programmi per la gestione delle E-mail, e anche i principali browser ne permettono la consultazione e l’invio. Nella casella di posta elettronica “gratuita” esiste il limite di spazio in Megabyte e l’eventuale cancellazione nel caso non si ricevessero i messaggi.

Esistono, nell’ambito della posta elettronica, strumenti supplementari che permettono di agevolare la comunicazione tra gli utenti:

4.2. IL PROTOCOLLO

Esiste una rete quando due o più computer sono connessi fra loro in modo tale che questi computer possano condividere dati e scambiarsi informazioni.
Questi macchine sono chiamate host o nodi della rete. Un computer che offre determinati servizi (ad esempio fornisce file o servizi di autenticazione delle password di una rete) è chiamato “server di rete”.
I nodi di una rete si scambiano informazioni utilizzando una serie di regole predefinite chiamate protocolli. Tutti i computer della rete utilizzano i protocolli per definire i servizi che un computer può rendere disponibili agli altri computer, ad esempio l’accesso ai file o il controllo della stampante.

I protocolli di rete variano a seconda della tecnologia impiegata dalla rete. Tuttavia la maggior parte dei protocolli di rete offre la possibilità di attivare connessione TCP/IP per consentire l’accesso a Internet.
Un protocollo è un software che a livello di connessioni di rete si occupa del dialogo e del riconoscimento reciproco tra i computer e le applicazione che su questi risiedono.
La sigla TCP/IP = Transmission Control Protocol / Internet Protocol, rende possibile la comunicazione attraverso la commutazione. L’indirizzo IP ipotetico per un server può essere: 255.255.255.0
Risulta importante conoscere il significato di cinque importanti protocolli:

PPP (Point to Point Protocol): È il metodo più comune di connettere un PC ad Internet. È più rapido perché comprime i dati nelle intestazione e ottiene l’indirizzo IP dell’utente in via automatica dall’host. Inoltre, controlla la connessione con la macchina remota che ci permette la navigazione su Internet. Contiene lo userID e la password. In più, consente lo scambio con il server che ci permette l’accesso all’Internet.

HTTP (Hyper Text Transfer Protocol) e FTP (File Transfert Protocol) definiscono due dei principali modi che abbiamo per navigare in Internet. Il primo rende possibile attraverso uno standard mondiale l’interattività della pagine Web, il secondo permette lo scambio di file e informazioni tra due host (un host indica il nome di un computer specifico in un dominio o subdominio più ampio).L’HTTP è il protocollo che rende possibile tutto ciò e restituisce al browser la pagina HTML da navigare.

UDP (User Datagram Protocol): È un altro protocollo a livello di trasporto. Dunque anche questo protocollo si occupa di trasferire i dati fra le applicazione. Tuttavia il protocollo UDP è meno affidabile del protocollo TCP.

ICMP: Internet Control Message Protocol: si occupa della gestione dei messaggi di errore della rete.

Finalmente, l’ISO (International Standards Organization), organizzazione costituita da un gruppo di scienziati, ha stabilito gli standard internazionali in molti campi. Alla fine degli anni 1970, l’ISO propose un modello per il collegamento dei sistemi (in altre parole un modello di rete) che fungesse da base per l’implementazione delle reti in tutto il mondo.

DNS: DNS (Domain Name Server) è il server dei nomi di dominio. La genesi di tali nomi discende dalle prime connessione tra computer. Ora su Internet si hanno delle macchine server che risolvono i cosiddetti “nomi di dominio” in quanto la navigazione attraverso indirizzi IP è mascherata con una navigazione con nomi più consoni al nostro linguaggio, del tipo: Registrazione Domini Online

Domini e sottodomini sono metodi per organizzare gli indirizzi Internet. I domini sono aree estese suddivise in base alla finalità (.com per le organizzazioni commerciali, .edu per le istituzione educative, ecc.), mentre i sottodomini sono aree più piccole nell’ambito dei domini (microsoft.com, adobe.com, macromedia.com, java.sun.com, ecc.).

4.3. LINEE DI PRODOTTI PER LA RETE

Ecco l’elenco delle principali sistemi e server (a titolo informativo):

Workstation: In questa categoria sono classificate le unità di elaborazione, caratterizzate da funzioni d’uso monoutente ancorché utilizzate in larga misura in configurazione di rete:

Personal Computer: L’evoluzione tecnologica ha fatto fortemente crescere il range delle tipologie di prodotti che possono essere raggruppati in questa tecnologia:

4.4. COMPONENTI PER SERVIZI ON-LINE: L’ULTIMA GENERAZIONE MULTIMEDIALE

 

<< Home Page >>

UNITÀ 1

LE TECNOLOGIE DELLA RETE

5. RETI LOCALI E RETI GEOGRAFICHE

5.1. RETI LOCALI

Nella maggior parte dei casi, le reti hanno un ambito limitato all’ufficio (reti locali o LAN – Local Area Network) o al campus universitario (reti metropolitane). Il tipo più grande di rete prende il nome di rete ad area geografica (WAN – Wide Area Network). Concettualmente, Internet è una “rete di reti”. Internet include un gran numero di reti locali (LAN) di enti commerciali, accademici e governativi.

Una LAN è costituita da un gruppo di computer connessi fra loro o connessi a un computer centrale (server) in cui tutti i computer sono prossimi gli uni agli altri. In una LAN, ogni utente utilizza un PC (desktop o portatile). Ognuno dei computer è dotato di una scheda di rete. Seconda della configurazione del computer, la scheda di rete può essere interna o esterna. Qui a destra abbiamoun’immagine di scheda interna.

5.2. RETI GEOGRAFICHE

Internet è connesso a un numero sempre crescente di reti geografiche (WAN – Wide Area Network), che è una rete in grado di connettere fra loro computer e reti locali separati da grandi distanze.
In generale qualsiasi rete che connette due computer distanti fra loro più di uno o due chilometri è considerata una rete geografica.

Secondo certi autori può essere considerata rete geografica anche una rete contenuta in un unico edificio o in una sede universitaria dove la distanze sono molto più ridotte. Una rete geografica può connettere computer situati in una singola città o può connettere i computer di un’azienda situati in una nazione o in più continenti.

Ogni server connesso a Internet fa anche parte di Internet. In altre parole, la rete Internet è costituita da tutti i server ad essa connessi, indipendentemente dal fatto che essi appartengano a LAN, WAN o provider.

In questi ultimi dieci anni, il tasso di crescita di Internet è stato sorprendente. Nel 1985, Internet comprendeva solo 1961 computer host (principali utenti = ricercatori e dipendenti statali degli Stati Uniti). Nel 1988, Internet, contava più di 80.000 computer host, una crescita pari al 4.000 %.

Dal 1997 in poi, Internet ha continuato a ingrandirsi a tassi di crescita esponenziali. Alla fine del 1988 e secondo la fonte “Internic” (gruppo che assegna e registra i nomi di dominio degli Stati Uniti) presentò un rapporto secondo il quali Internet erano connessi più di 16.500.000 server, che rappresentano 830.000 domini di alto livello.

5.3. I RISCHI E LA SICUREZZA

La connessione del sistema a Internet espone a vari tipi di attacchi che crescono giorno dopo giorno.

Questi attacchi sfruttano i seguenti punti deboli:

Per prepararsi a questi attacchi, ci si deve attendere che ogni potenziale intruso possa sfruttare queste vulnerabilità per accedere ai dati e danneggiare il sistema. L’introduzione dei servizi Internet in una rete LAN può aprire falle nei sistemi di sicurezza e tali falle possono essere utilizzate da utenti non autorizzati per accedere alle risorse della rete aziendale.
Gli intrusi possono anche invadere il server Internet, modificando i file in esso memorizzati. Gli hacker possono intercettare i messaggi di posta elettronica o possono inserire nel sistema virus e altri programmi distruttivi auto-replicanti in grado di danneggiare o disabilitare completamente il sistema.

Le reti connesse a Internet sono soggette a vari tipi di attacchi:

5.4. DIFESE DI RETE

Diamo a questo punto un’occhiata a quali possono essere i sistemi di difesa a nostra disposizione contro attacchi indesiderati:

Firewall (muro antincendio): serve a impedire l’accesso agli estranei. I firewall rappresentano il confine fra una rete privata e la rete pubblica. Per scavalcare un firewall è possibile introdurre qualcosa di nascosto, mascherandola con dati autorizzati. A seconda del tipo e della configurazione del firewall, questo può essere facile, difficile o praticamente impossibile.

Zone demilitarizzate (DMZ) sono un territorio di nessuno. Per quello che riguarda i firewall, una zona demilitarizzata è un’area della rete nella quale vengono collocati i servizi pubblici. Per fare questa zona occorrono due firewall logici, uno che protegga la DMZ dai pericoli esterni e uno, più restrittivo, che protegga la rete interna da quelli della zona demilitarizzata. In questo modo si ottengono un’area semipubblica e una decisamente private (funziona).

Reti private virtuali (VPN, Virtual Private Network) è semplicemente una connessione sicura all’interno di una rete pubblica; tali reti garantiscono la protezione servendosi di vari protocolli di crittografia. Una VPN può essere intesa come una sorte di passaggio segreto all’interno del firewall.

Sistema di rilevamento delle intrusioni (IDS, Intrusion Detection System): sono monitor di reti, ossia strumenti che sorvegliano la rete alla ricerca di comportamenti sospetti. L’IDS può essere realizzato in due modi:

Trappole ed esche: Le trappole sono elementi della rete studiati i modo da renderla inutilizzabile non appena qualcuno li tocca. Le esche sono trappole mascherate in modo da sembrare particolarmente interessanti agli eventuali aggressori. A differenza dei firewall e degli IDS (di cui è sempre possibile scoprire la marca), trappole ed esche possono essere create su misura per la rete da proteggere.

Scanner di vulnerabilità: Sono programmi che esamino una rete alla ricerca di punti deboli noti, spetta poi all’amministratore decidere se e come eliminarle. Nel 1995 fu rilasciato SATAN (Security Administrator Tool for Analyzing Networks) destò molto scalpore.

Sicurezza della posta elettronica: La posta elettronica non dispone di un sistema di sicurezza incorporato. Così come avviene per i pacchetti di rete, anche i messaggi di Email possono essere letti da qualsiasi computer situato fra il mittente e il destinatario. La soluzione più semplice e diretta per proteggere i messaggi di posta elettronica è usare la crittografia.

Crittografia: La crittografia rappresenta un modo per proteggere le informazioni trasmesse dalle intercettazioni. Utilizzando hardware con funzionalità di crittografia è possibile collegare tramite Internet reti geograficamente disperse sul territorio come pure consentire l’accesso tramite Internet a utenti remoti, senza preoccuparsi del fatto che qualcuno possa intercettare e leggere i dati.

Il software antivirus installato nei firewall esamina automaticamente tutti i messaggi di posta elettronica per individuare eventuali programmi nocivi. Nelle società più grosse questi strumenti individuano circa 1.000 virus al giorno. Se tutti i messaggi delle e-Mail fossero crittografati, il software antivirus non riuscirebbe a trovare nulla (a meno di non disporre delle chiavi di codifica).

<< Home Page >>

UNITÀ 1

LE TECNOLOGIE DELLA RETE

6. SOFTWARE E HARDWARE IPERTESTUALE / IPERMEDIALE ON-LINE E OFF-LINE

6.1. INTRODUZIONE E BREVE PANORAMICA STORICA

Lo sviluppo delle tecnologie che comprendono immagini fotografiche, testi grafici, video, animazione 2D e/o 3D, e materiale audio fra di loro correttamente combinati hanno portato a un’indubbia trasformazione del sistema informatico ora limitato a elaboratori di testo, elaboratori di dati numerici o a una loro combinazione.

Questo nuovo impatto si rifletterà soprattutto nel campo professionale, nel campo scientifico, in quello educativo, nella realtà domestica e nelle strutture pubbliche, raggiungendo, così, virtualmente, tutti i livelli della società generando un importante impatto sociale. Tutto ciò trasformerà la tecnologia della multimedialità in un qualcosa con cui ci si dovrà, inevitabilmente, confrontare.

Il primo serio tentativo di realizzazione di un sistema ipermediale risale al 1968 quando Engelbart e English hanno introdotto il sistema “Augment” per potere gestire una lettura e scrittura strutturata dei documenti. L’evento scatenante nello sviluppo della tecnologia ipermediale si è verificato nel 1987 a Chapel Hill dove si è tenuto il primo convegno sull’ipermedialità (Hypertext’87). Da quel momento in avanti si è verificata una continua crescita si nell’interesse sia nela produzione di sistemi ipermediali, con numerosi prototipi e veri propri sistemi ipermediali commerciali che hanno visto una continua crescita, come dimostrato, per esempio, da HyperCard sviluppato per sistemi Apple Macintosh.

Le caratteristiche dell’ipermedialità si adattano perfettamente a quelle applicazioni che prevedono un elevato grado di interazione e fra questi si possono citare: editoria elettronica, sistemi di informazioni in linea, sistemi di istruzioni gestita da computer, manuali diagnostici e di riparazione, sistemi di supporto di gruppo, sistemi di authoring, ecc.
Fra i prodotti commerciali presentati sul mercato ipermediale negli anni 1980 si possono citare:

Sono essenzialmente sistemi di uso generale, in grado di catalogare e ricercare informazioni di tipo multimediale, anche se la maggior parte di essi sono in grado di gestire correttamente solo testo e immagini. Molte funzioni ipermediali sono state altresì inserite nell’interfaccia utente di prodotti come l’Agenda della Lotus. Nei laboratori di ricerca e a livello universitario sono stati sviluppati anche sistemi più complessi e maggiormente orientati alle applicazioni commerciale:

- Intermedia dell’Università Brown (Yankelovich et al., 1988).

- NoteCards della Xerox PARC (Halasz et al., 1987).

- Neptune della Tektronix (Delisle e Schwartz, 1987).

- gIBIS della MCC (Conklin e Begemnan, 1988).


Essi sono stati rispettivamente sviluppati per gestire processi di istruzine su larga scala (Intermedia), raccolta e analisi di informazioni (NoteCards), progetti di ingegnerizzazione di software su larga scala (Neptune), supporto gestionale e delibere decisionali preventive (gIBIS). Questi prototipi vengongo per lo più utilizzati come veicoli per investigare specifiche situazioni, cioè, sono stati utilizzati e testati su un gran numreo di utenti e in un gran numero di situazioni.

6.2. SOFTWARE

Il mercato ipermediale digitale può essere suddiviso fondamentalmente in tre aree:

- L’area off-line delle piattaforme per titoli pre-registrati (CD-ROM, piattaforme dedicate ai videogiochi, DVD).

- L’area on-line dei servizi telematici, oggi costituita prevalentemente dai servizi Internet.

- Servizi di televisione digitale.

Il mercato dell’editoria multimediale off-line e on-line presenta una serie di prodotti commerciali per creare contenuti ipermediali. Sono essenzialmente tre attualmente i software adibiti alla creazione di contenuti ipermediali, e sono Adobe, Macromedia e Asymetrix. Adesso, facciamo una breve panoramica di questo settore illustrandone le diverse caratteristiche e gli aspetti più interessanti...

Adobe Premiere 6.0 è un strumento di editing video professionale di una semplicità incredibile che colma con naturalezza il divario fra video digitale e Web. Questo software pluripremiato si conferma come l'applicazione di più facile accesso oggi disponibile sul mercato. Con l'introduzione del supporto del video digitale sulla piattaforma Windows e il supporto multipiattaforma di tutti i principali formati video per Web, Premiere si impone con tutta una serie di nuove caratteristiche e funzioni, che vanno a consolidare ulteriormente la sua fama di miglior strumento di editing video sul mercato.
Vediamo adesso un breve elenco dei requisiti necessari per utilizzare il software sul sistema Windows:

- Processore Intel Pentium (300 MHz)

- Microsoft Windows 98, Windows 98 Seconda edizione, Windows 2000, Windows Millennium o Windows NT 4.0 con Service Pack 4.

- 32 Mb. di RAM (128 consigliati).

- 85 MB di spazio libero su disco rigido per l'installazione (40 Mb. per l'applicazione).

- Scheda video da 256 colori.

- Disco rigido di grande capienza o serie di dischi.

Vediamo invece quali sono i requisiti aggiuntivi per il video digitale Windows:

- Interfaccia IEEE 1394 compatibile con Microsoft DirectX

- Scheda video compatibile con Microsoft DirectX

- Disco rigido di grande capienza o serie di dischi (in grado di sostenere 5 MB/sec)

- Per il video digitale incorporato: necessari Windows 2000, Windows 98 Seconda edizione o Windows Millennium

Infine l’unico requisito aggiuntivo per le schede di acquisizione di terze parti è una scheda di acquisizione certificata Adobe Premiere.

Vediamo invece ora quali sono i requisiti necessari per il sistema Macintosh

- Processore PowerPC

- Software Mac OS versione 9.0.4

- 32 Mb. di RAM disponibile (128 consigliati)

- 50 Mb. di spazio libero su disco rigido per l'installazione

- Apple QuickTime™ 4.1.2

- Disco rigido di grande capienza o serie di dischi.

I requisiti aggiuntivi per il video digitale Macintosh sono:

- Processore PowerPC (da 300 MHz)

- Apple FireWire 2.4

- Interfaccia FireWire (IEEE 1394) compatibile con QuickTime

- Disco rigido di grande capienza o serie di dischi (in grado di sostenere 5 MB/sec)

Infine, anche in questo caso l’unico requisito aggiuntivo per le schede di acquisizione di terze parti è la scheda di acquisizione certificata Adobe Premiere.

Adobe InDesign 2.0 contiene gli strumenti di impaginazione che avete sempre desiderato. Si integra perfettamente con Adobe Photoshop, Adobe Illustrator e Adobe Acrobat.

Inoltre, lascia spazio alla vostra creatività, grazie alle sue funzioni intuitive che riducono a pochi semplici passaggi anche le più elaborate operazioni di design. Quando siete pronti, i risultati di stampa sono precisi e affidabili.
Con InDesign 2.0 e possibile anche andare oltre la stampa, con il supporto incorporato per la pubblicazione di pagine su qualsiasi supporto: in Adobe Portable Document Format (PDF), come eBooks, sul Web e in altri modi.

Adobe Illustrator 10, definisce una parte del futuro della grafica vettoriale, con innovative opzioni creative e potenti strumenti che consentono di pubblicare in modo efficiente la grafica sia sul Web che in stampa.
Per realizzare grafica Web d'impatto,si può provare i nuovi strumenti per simboli e le innovative opzioni per dividere la grafica in sezioni. Gli strumenti di distorsione dinamici non pongono limiti alle idee creative.

Adobe After Effects 5.5 comprende un set completo di strumenti per la creazione di grafici in movimento ed effetti visivi per film, video, dati multimediali e siti Web. C’è un numero illimitato di funzioni creative con un elevato controllo di precisione mentre lavorate in ambiente 2D o 3D. After Effects offre un'integrazione completa per Adobe Premiere, Adobe Photoshop e Adobe Illustrator in grado di produrre risultati di alta professionalità. After Effects è disponibile in due versioni. La versione Standard fornisce strumenti di composizione, animazione e creazione di effetti speciali.

La Production Bundle contiene tutti questi strumenti più supporto del colore a 16 bit, capacità di grafica vettoriale, rendering di rete nonché altri strumenti avanzati per la codifica, la gestione dei movimenti, gli effetti visivi, il canale 3D e l'audio.
La Production Bundle comprende inoltre Zaxwerks 3D Invigorator Classic, un plugin appositamente concepito per la produzione di grafica 3D di qualità cinematografica e televisiva.

Adobe Web Collection racchiude quattro potenti applicazioni Adobe in una suite completamente integrata: Adobe GoLive, Adobe Photoshop, Adobe Illustrator e Adobe LiveMotion. Dai forma alla tua creatività realizzando siti Web dinamici, interattivi e di grande effetto grazie a un set completo e integrato di strumenti professionali della prossima generazione.
Adobe Web Collection offre in un'unica confezione tutti gli strumenti per competere nell'attuale mondo del Web.

DREAMWEAVER 4 E FIREWORKS 4

Macromedia Dreamweaver 4 ha quasi tutto quello che occorre per sviluppare un sito Web dall'aspetto professionale. Adesso è possibile creare grafica Macromedia Flash direttamente in Dreamweaver. La intuitiva interfaccia utente e gli strumenti di layout visivo di Dreamweaver e del suo ambiente di modifica del testo, facilita notevolmente il lavoro.

6.3. HARDWARE

Quando si parla di multimedia “off-line”, il primo pensiero è verso il CD-ROM e oggi il DVD.
Nella breve storia dei CD-ROM è possibile guardare come due società, (Philips e Sony) nel 1978 collaborarono per giungere alla produzione di compact disc audio o CD.

In questo modo, Philips aveva già sviluppato lettori di dischi che sfruttavano la tecnologia laser mentre Sony, dal canto suo, vantava un’esperienza decennale nel campo della registrazione digitale. Nel 1982 le società annunciarono il loro standard, che comprendeva le specifiche tecniche per la registrazione e per la campionatura, nonché il formato a 5 pollici attualmente esistente. La capacità standard di ogni CD-ROM è di oltre 600 Mb. equivalente a circa 500.000 pagine di testo.
Oggi con un CD-ROM è possibile inserire: le pagine gialle, un’enciclopedia di ventuno volumi, l’atlante stradale generale a colori, ecc.

Standard di dati: ISO 9660

I primi CD-ROM erano prodotti esclusivamente per un solo lettore e ciò significava che un disco prodotto per il lettore della società “A” non poteva essere letto dall’apparecchio della società “B”. Questa incompatibilità bloccò lo sviluppo dell’industria dei CD. Philips e Sony, collaborarono per fissare gli standard dei Cd audio, e svilupparono a tale scopo il cosiddetto “Libro giallo” delle specifiche tecniche per i CD di dati.

I colori dei libri vengono utilizzati per definire le specifiche dei CD-ROM:

Rosso: Audio.

Giallo: Dati.

Verde: CD-I (Philips), CD-ROM-XA

Arancione: Registrabile (CD-WO, CD-R).

CD-I – CD Interactive

Nel 1989 Philips presenta una tecnica digitale basata su CD-ROM.
Il primo riproduttore CD-I non prevede la presenza di una tastiera ed è collegabile a un comune monitor o a un apparecchio TV di tipo standard. Le caratteristiche del sistema CD-I sono:

 

<< Home Page >>

 

UNITÀ 1

LE TECNOLOGIE DELLA RETE

7. CONFIGURAZIONE STANDARD DI UN SISTEMA PER L’EDITORIA MULTIMEDIALE

7.1. INTRODUZIONE

Prima di comprare un Pc per generare il sistema di lavoro nel settore della Editoria Multimediale è fondamentale valutarne le caratteristiche:

Quasi sempre al momento dell’acquisto di un sistema di Editoria Multimediale, le idee non sono molto chiare per svariati motivi: magari la configurazione cercata non è disponibile, oppure i componenti sono stati aggiornati e questo comporta un sensibile ritocco in Euro; i programmi inclusi sono solo “pre-istallati” senza alcun manuale di utilizzo o CD-ROM che ne spieghi il funzionamento, ecc., ecc.

Come sempre Internet può aiutare a configurare il nostro sistema per l’Editoria Multimediale, citiamo ad esempio alcuni siti che potrebbero esserci di aiuto:

guide.supereva.it/multimediale
www.appuntisuldigitalvideo.it
www.eurosito.it

Per generare e gestire una documentazione ipertestuale occorre assicurarsi di avere a disposizione i seguente prodotti “gratuiti”:

L’installazione sul proprio Pc dei programmi coinvolti nella generazione e nell’esplorazione di documentazioni ipertestuali, è ragionevolmente semplice. Problemi legati ad eventuali conflittualità reciproche, praticamente non esistono in quanto ogni programma fa riferimento a proprie librerie oppure a quelle di sistema senza apportare alcuna modifica.

7.2. COME VALUTARE UN COMPONENTE DEL SISTEMA: ESEMPIO SCANNER

A prima vista gli scanner possono sembrare tutti uguali, però essistono diversi aspetti da considerare:

1) Dpi ottici e risoluzione: la sigla “dpi” sta per “dot per inch”, ossia “punti per pollice”. Questo indica la massima risoluzione alla quale lo scanner può acquisire le immagine utilizzando soltanto il sensore in dotazione. Esistono scanner che arrivano a 1.200 o addirittura 2.400 dpi, ma è davvero difficile acquisire un’immagine ad una risoluzione superiore ai 600 dpi, e ciò per due ragioni: la prima è che, per quanto riguarda la visualizzazione su video, all’aumento della risoluzione di scansione corrisponde un puro aumento delle dimensioni dell’immagine. Ad esempio, un monitor settato alla risoluzione video di 1024 x 768, viene già completamente riempito da una foto di 15 x 10 cm ( 6 x 4 pollici) scansionata ad appena 180 dpi. La seconda, la risoluzione della stampante. È del tutto inutile effettuare una scansione a 1200 dpi se la stampante è in grado di riprodurre le immagini a soli 600 dpi.

2) Interfaccia o connessione hardware: la scelta del tipo di interfaccia determina, oltre che parte del costo della periferica, anche la velocità di scansione e di trasferimento dati tra lo scanner e il PC. In ordine di velocità sono:

a. Interfaccia SCSI (occorre procurarsi anche una apposita scheda da inserire in uno degli slot del PC).

b. Interfaccia USB (più standard con un PC Pentium III o IV).

c. Interfaccia Parallela (non è consigliabili i modelli parallei dal momento che, oltre ad essere molto lenti, andrebbero collegati alla medesima uscita generalmente già destinata alla stampante o a un lettore Zip).

3) Range dinamico o profondità di colore: gli scanner generalmente hanno un range di 24, 30, o 36 bit (alcuni sono di 42 o 46 bit). Maggiore è il range dinamico dello scanner, maggiore il livello di dettaglio che esso riesce a rilevare nelle aree più scure delle immagini scansionate (foto o diapositive).

4) Software: mai come nel caso degli scanner, il software incluso fa davvero la differenza. Controllare sempre che i programmi di fotoritocco e di trattamento delle immagini siano compresi nel prezzo dello scanner. Generalmente ogni fabbricante di scanner include un “software proprietario” che fa da interfaccia con la periferica. Esistono varie tipologie: HP Precision Scan (fortemente automatizzati e destinati al principiante) e Umax MagicScan e Microtek ScanWizard (ricchi di opzioni e destinati al utente esperto). Si possono trovare anche software di più alto profilo come Adobe PhotoDeluxe o PhotoShop Le.
quello più importante è il software OCR (Optical Character Recognition) come Textbridge o Omnipage, con i quali si può utilizzare il vostro scanner per importare testo stampato all’interno di un qualunque word processor.

5) Altre specifiche sono:

 

7.1. PRIMI INDIRIZZI INTERNET PER LA CONFIGURAZIONE DEL SISTEMA

www.hp.com/it: Ecco l’unione di 3 periferici in uno: stampa, fax, scanner …e “tutto a colori”. Un modello per il futuro prossimo …

www.epson.it: Il magico mondo della stampa ed altri componenti per l’editoria.

www.sharp.it: Dalla calcolatrice al Pc portatile multimediale.

www.canon.it: Stampanti, video, ecc. La tecnologia ipermediale del Giappone …

www.acer.it: Monitori con display LCD, portatile ed altro …

www.compaq.it: Computer multimediali per l’ufficio e la casa.

www.ibm.it: Le grande soluzione di server e sistemi aziendali.

www.3com.it: Connessione alla rete (Intranet e Internet).

www.logitech.com: Mouse, tastiera, jostick ed altro … (tecnologia cordless)

www.afga.com: Il mondo della immagine digitale.

www.intel.com: Dal microprocessore al microscopio elettronico Intel QX3

Un pioniere importante dell’hardware multimediale è www.creative.com

7.4. PRINCIPALI COMPONENTI DI HARDWARE MULTIMEDIALE “ON-LINE”

Apple
http://www.apple.com/
L'azienda della mela presenta tutti i suoi prodotti, in particolare PC.

Canon
http://www.canon.it/
Commercializzazione e supporto su tutto il territorio nazionale di prodotti digitali-multimediali, sempre con la possibilità di massimizzare l'uso del colore.

Creative Labs
http://www.soundblaster.com/
Creative Labs è la società che ha inventato la scheda audio Sound Blaster, divenuta lo standard per il sonoro su PC.

Dell
http://www.dell.com/
Consigli e informazioni sui prodotti della Dell Corporation.

Direct
http://www.direct.it/
Interfaccia chiara per la quantità d'informazione su processori, schede video, monitor, stampanti, ecc.

Eizo
http://www.eizo.com/
La compagnia Eizo presenta la collezione dei suoi prodotti, in particolare monitor.

Epson
http://www.epson.it/
Epson offre soluzioni complete di input/output dal settore business e professionale sino al consumer, con prodotti che vanno dall'acquisizione delle immagini alla visualizzazione (videoproiettori), fino alla stampa.

Fujitsu
http://www.fujitsu-europe.com/
Fujitsu Italia è specializzata nella proposizione di una vasta gamma di periferiche per computer, quali stampanti, hard disk, unità magneto ottiche, scanners.

Hauppauge Computer Works
http://www.hauppauge.com/
Distributori di schede multimediali PC/TV di propria produzione, note con il famoso nome WinTV.

Hardw.Upgrade
http://www.hwupgrade.it/
Capire quale è l'hardware più opportuno al computer con il quale si lavora non è un più un problema, grazie alle prove comparative di questo sito.

Hewlett Packard
http://www.hewlett-packard.com/
Tutti i prodotti della Hewlett Packard, in particolare informazioni su stampanti e scanner.

Hyundai
http://www.hyundai.it/
Hyundai Italia è distributore per il mercato italiano di PC, monitor, notebook e server prodotti di elevata qualità, destinati ad una utenza professionale.

Iomega
http://www.iomega.com/
Famosa azienda grazie all'unità zip. Di modello in modello, cresce capacità di archiviazione file.

LG Electronics
http://www.lgelectronicsitalia.com/
Importazione, vendita, manutenzione prodotti IT: monitor, memorie ottiche (CD & DVD-ROM, CDRW), digital image (scanner, telecamera per PC). Importazione, vendita, manutenzione prodotti consumer e office.

MacPoint
http://www.macpoint.it/
Tutto le novità della Apple in questo sito. Quattro sezioni dedicate a iMac, iBook, G4 e Powerbook.

Matrox
http://www.matrox.com/
Azienda conosciuta per la produzione di schede grafiche come Millenium, MAG, ecc. Tutte le informazioni sulle schede a disposizione dell'utente mondiale di computer grafica e multimediale.

Minolta
http://www.minolta.it/
La soddisfazione del cliente guida la vendita delle soluzioni Minolta: le copiatrici analogiche Cs-Pro e le soluzioni digitali Dialta, le stampanti Page Pro, i fax, gli scanner, le fotocamere digitali e gli stumenti di misurazione del colore.

Nec
http://www.nec.org/
Informazione molto dettagliate su monitor, computer e stampanti.

Philips
http://www.philips.com/
L'azienda olandese offre informazioni su CD-ROM, DVD, monitor ecc.

Samsung
http://www.samsung.com/
Possibilità di scaricare icone, immagini desktop, screensavers per monitor.

Ricoh
http://www.ricoh.it/
Leader nella produzione di copiatrici b/n, a colori e digitali, sistemi modulari e multifunzionali, stampanti laser, fax a carta termica e a carta comune, duplicatori digitali, scanner e fotocamere digitali.

Tektronix
http://www.tektronix.com/
Tektronix propone una vasta gamma di stampanti per soddisfare le esigenze di tutti. Tektronix offre l'esclusiva tecnologia solid ink a 1200 dpi in fronte retro automatico.

Toshiba
http://www.toshiba.com/
Un sito molto curato nella grafica per presentare i portali, unità di CD-ROM e tantissimi altri prodotti.

Zdnet
http://www.zdnet.it/
Sito con più di 18 edizioni nazionali, incluso l'italiano. Ci si informa e si impara dall'hardware fino il funzionamento del computer, un sito con consigli d'oro per gli acquisti.

In sintesi...

 

<< Home Page >>

UNITÀ 2

LA STRUTTURA DELL’INFORMAZIONE IPERTESTUALE

1. LINEARITÀ E NON LINEARITÀ: ASPETTI FONDAMENTALI

1.1. INTRODUZIONE

I nuovi media amplificano le possibilità di realizzare testi che stanno in relazione con altri testi attraverso l’uso dei “link”.
Organizzare un contenuto multimediale vuole dire mettere ordine selezionando, scegliendo ed escludendo, per far emergere le differenze, ovvero l’identità di un prodotto multimediale in supporto CD-ROM / DVD, o l’identità del sito rispetto agli altri, ad esempio.

Certamente la ricchezza della comunicazione multimediale risiede proprio nell’essere prevedibile, in quanto essa permette una navigazione in cui le associazioni di senso talvolta emergono casualmente. La ricchezza di questa imprevedibilità nella linearità è il valore aggiunto del multimediale e la garanzia per una crescita della propria conoscenza, altrimenti circoscritta a circuiti predeterminati. Un bell’esempio, è il lavoro di Peter Gabriel nel settore multimediale/ipermediale.

La linearità o no è il risultato da una parte delle scelte operate durante l’organizzazione dei materiali e dell’intreccio che si costruisce in questa fase. Creare un collegamento tra tematiche differenti (ad esempio, l’informazione turistica, l’economia, la storia, ecc. di una città) potrebbe non essere semplicemente un approfondimento di una parte dei contenuti, bensì un passaggio cruciale all’interno del percorso “argomentativo”.

Quando si parla di percorso “argomentativo” è importante pensare sempre secondo questo schema chiamato “classical linear structure - narrative”:

  1. Climax
  2. Conflict
  3. Exposition Resolution
  4. Linearità

La drammaturgia aristotelica, dal teatro classico fino alla telenovela con gran successo in TV, presenta una struttura attuale in tre parti, che corrispondo alla suddivisone drammatica in vari atti, ossia: l’esposizione, il conflitto, il punto più critico e la risoluzione del conflitto. Ad esempio, il finale “classico” può essere: happy end, open, close, ecc.
Da tale modello lineare conseguono i prodotti cinematografici.

1.2. L’ORIENTAMENTO ALL’UTENTE

Il collegamento tra tematiche differenti dovrà situarsi coerentemente in relazione agli obiettivi del sito o del contenuto multimediale “off-line”, e alle sue modalità espressive: la struttura fornisce orientamento all’utente. Se la logica della struttura sarà sufficientemente chiara, l’utente sarà in grado di prevedere in anticipo dove e in che modo troverà i contenuti che cerca.
Ad esempio, se l’utente capisce che la struttura del sito è ad albero si aspetta di poter sempre tornare al livello superiore e utilizzare un indice per effettuare altre ricerche in quel determinato ramo. In poche parole: se la struttura è chiara, la navigazione diventa più intuitiva e immediata.

Al contrario, se la struttura non è abbastanza chiara, ci sarà una mancanza di orientamento o esplorazione delle interfacce / contenuto: Ecco un sistema multimediale di non linearità (esplorativa 100%) di Peter Gabriel.

Nel libro “Gli spazi dell’ipertesto” si trovano questi spazi:

a. Lo spazio logico: si tratta di configurazioni topologiche, e di organizzazione a rete nella età del Rinascimento …

b. Lo spazio visibile: Le metafore iconiche dello spazio logico rappresentato nello spazio visibile, la sintassi “interna” ed “esterna” ...

c. Lo spazio agito: Uno spazio per leggere; i soggetti dell’azione comunicativa; caratteri della navigazione ipertestuale:

1.3. LA MULTILINEARITÀ

La metafora della navigazione, applicata alla fruizione ipertestuale, rimanda in primo luogo alla libertà di percorso consentita all’utente. Una libertà di grado considerevolmente maggiore rispetto alla fruizione e, in particolare, alla lettura tradizionale.
I prodotti multimediali sembrano suggerire un radicale rinnovamento delle modalità di accostamento al testo: la linearità e la sequenzialità della lettura su supporto tradizionale paiono soppiantate dalle caratteristiche opposte.

A uno spazio che - nei libri “classici” e non E-book – si presenta come orientato in modo rettilineo e scandito in tappe successive e concatenate, sembra sostituire una spazialità adirezionale e multiplanare. Ma attenzione! Perché, in realtà anche nelle pagine Web esistono tappe obbligate nella consultazione, ad esempio svuotare la cella per fare la ricerca su l’iperbase.
Gli ipertesti non prevedono a priori una linearità che orienti in senso univoco il procedere del senso, sia nella componente verbale, sia, a maggior ragione, nella unità informative costituite da immagine.

Tutto questo non significa però che il regime ipertestuale neghi in modo assoluto la linearità e la sequenzialità. Certamente che l’ipertesto recupera la linearità nella dimensione più piccola della fruizione, ossia, la navigazione. Sotto questa visione, la navigazione si presenta come un percorso a tappe libere, in cui però il singolo nodo è in genere progettato per una lettura che segue le modalità classiche, al meno fino alla eventuale segnalazione di un ulteriore approfondimento. Un classico esempio è il tempo di lettura necessario di una notizia su un giornale digitale:

http://www.clarin.com.ar/ (idea originale nel disegno della home page, 11.11.2003)

http://www.lavanguardia.es/ (“fotocopia” o plagio della idea “Clarín”, 11.11.2003)

L’ipertesto non distrugge la linearità, né tanto meno la sequenzialità. Elimina la normatività, la costrizione monodirezionale secondo cui è normalmente costruito un testo. Invece, c’è l’orientazione alla organizzazione del materiale testuale in base al presupposto della possibilità di una pluralità di letture. All’interno di ogni singolo atto di lettura, viene costruita una nuova sequenzialità, frutto della concatenazione delle scelte individuale dell’utente.

La lettura interattiva non è una negazione della sequenzialità. Invece siamo di fronte alla proposta di una multilinearità o multisequenzialità, in base alla quale l’utente può attualizzare nella consultazione e in conformità ai propri interessi.
L’ipertesto prevede al proprio interno un numero variabile di percorsi, tutti ugualmente leciti, a seconda della complessità della progettazione e della ricchezza dei materiali contenuti (ipermedia / multimedia).

Quindi, il fatto che la navigazione ipermediale ponga sovente di fronte a scelte alternative mette in dubbio la fattibilità di una conoscenza esaustiva del testo, l’immagine e il suono, se non a prezzo di una iterazione delle sedute consultative, in cui si preveda la ripetizione di alcuni passaggi obbligati (riusabilità della informazione). C’è anche chi legge l’impossibilità di una conoscenza esaustiva del testo come garanzia del suo valore: l’omissione di un senso è la contropartita inevitabile della ricchezza di sensi possibili che caratterizza il testo plurale.

Al tempo stesso, è solo una lettura adeguata a far emergere tale profondità di significati, anche relativizzandone la quantità rispetto alla scelta di un preciso punto di vista. Qui è fondamentale il punto di vista della semiotica quando si parla di questi argomenti, che non cambiano tanto di fronte alla editoria multimediale.

Lo scontro tra la parzialità del concreto atto di lettura e la totalità del testo teorico, se da una parte moltiplica i testi (limitati) costruiti attraverso la fruizione, dall’altra incrina la possibilità di una conoscenza del testo (soprattutto per quanto concerne le reti ipertestuali). Per concludere, il punto di vista di George Landow:

“L’ipertesto come nuove regime letterario che cancella la distinzione tra chi scrive e chi legge, innalzando quest’ultimo al ruolo di co-autore.”

“La lettura di un ipertesto può dirsi completa quando siano state recuperate le informazioni ricercate, e non quando sia stata percorsa la totalità del materiale disponibile, come per i testi su supporto cartaceo”.

 

<< Home Page >>

UNITÀ 2

LA STRUTTURA DELL’INFORMAZIONE IPERTESTUALE

2. GLI ELEMENTI DI FRUIZIONE DI UN IPERTESTO SU UN COMPUTER

2.1. INTRODUZIONE

Facendo dei graffiti su un treno, comunico arbitrariamente e a senso unico qualcosa. Così come se vado al cinema ricevo qualcosa, inopinatamente e in un’unica direzione. Se, al contrario, mi cimento con la multimedialità non posso essere né semplice emittente, né semplice ricevente della comunicazione; mi trovo bensì costretto a divenire interlocutore tanto del mezzo (PC) che del prodotto (Internet, DVD, CD-ROM, e così via). Nella fruizione la persona è costretta ad ascoltare, capire, rispondere appropriatamente, risolvere problemi, scegliere dove andare, ecc.

Questo semplice processo modifica notevolmente l’ambiente di comunicazione. Numerosi studiosi ritengono infatti che è più normale parlare di “interazione o fruizione” nel rapporto che si stabilisce tra persone e prodotti/tecnologie multimediale. E’ questo il punto dove l’evoluzione del concetto ipertesto è fondamentale in questa premessa.

Un ipertesto viene fruito da un browser (rovistatore, scartabellare, curiosare). Il browser, ambito informatico è un particolare programma che permette la cosiddetta “navigazione” su Internet, ma anche su il disco rigido, CD-ROM, DVD, floppy, ecc.
Ci sono diversi tipi di browser attualmente disponibili: Netscape ed Explorer. Opera è un terzo browser diffuso soprattutto tra i possessori di notebook e di computer poco potenti.

Ritenere che un browser sia utile solo se si naviga sul web è un errore. Con un browser si possono realizzare documenti ipertestuali, multimediali ed ipermediali, certamente sfruttando le peculiarità del motore interprete, ad esempio un text editor (Blocco Note), un imaging editor (Paint), ecc. Un browser non ha bisogno di un modem per “interpretare” un file ipertestuale, né tanto meno occorre che sia connesso in rete. In un browser possiamo osservare:

• I due bottoni (freccia a sinistra e a destra);

• Il nome della pagina attualmente in corso di visualizzazione (in realtà è il percorso di raggiungimento);

• I contenuti della pagina (un logo, preso come immagine, link, bottoni attive, ecc.);

• Il titolo della pagina;

• Lo sfondo;

• La compresenza di tutti i comandi del sistema operativo sotto cui opera il browser;

• Una barra di scorrimento verticale e orizzontale (questo ultimo dipende di svariati fattori).

Di seguito, vediamo un elenco delle operazioni comuni ai due browser:

2.2. FUNZIONAMENTO DI UN BROWSER

HyperTextual Mark-up Language, chiamato HTML è il “meccanismo” con cui gli ipertesti sono realizzati. Il linguaggio Html è l’evoluzione di altri linguaggi detti di mark-up, la cui funzione è quella di esprimere l’organizzazione di visualizzazione, tipicamente a stampa, di testi tipografici, tutti i “word processor” adottano rappresentazione interna di linguaggi di mark-up per identificare l’impostazione della pagine, la struttura dei vari paragrafi, delle tabulazioni, dei corsi e degli stili dei caratteri, dei vari grassetti e corsivi, e così via. Ogni comando è caratterizzato da una coppia di “parentesi” (inizio comando e fine comando), e da un identificatore che esplicita l’azione da compiere, ad esempio:

Come link da eseguire alla pressione del tasto del mouse, il browser:

A fronte della pressione del bottone del mouse su uno dei bottoni il browser verifica il suffisso del file collegato e:

2.3. FRUIZIONE E ORGANIZZAZIONE DELL’INFORMAZIONE

Nell’operazione di navigazione, gli utenti sono responsabili del controllo del processo di ricerca e, come risultato, saranno proprio loro (e non il sistema) che dovranno tenere in considerazione la struttura dell’informazione. Il ruolo viene ribaltato nel caso in cui viene avviata un’operazione di recupero mediato dell’informazione, dove è il sistema ad essere responsabile dell’operazione di ricerca e a dover, di conseguenza, valutare l’intera struttura informativa.

La questione di chi deve operare con la struttura rappresenta la dimensione principale dell’esplorazione della base informativa (responsabilità strutturale). Una seconda dimensione dell’esplorazione delle informazione mette in contrapposizione le attività di scorrimento delle informazione con le operazioni di interrogazione. L’operazione di scorrimento delle informazioni (browsing) differisce da quella di interrogazione (querying) a causa dell’assenza di una precisa destinazione nella mente dell’utente. Waterworth, Chignell e Chung (Ingegneria della conoscenza per l’ambiente ipermediale) definiscono questa dimensione esplorativo delle informazioni come destinazione orientamento. Nel loro modello, la distinzione fra le operazioni di browsing e quelle di querying non viene determinata dalle azioni dell’utente o dalla configurazione del sistema, ma dallo stato cognitivo dell’utente stesso.

Presumibilmente si è in presenza di un continuum del comportamento dell’utente che con il passaggio da un’operazione di scorrimento delle informazioni a quella di interrogazione, viene modificato in accordo alla specificità degli scopi dell’utente quando viene avviata un’esplorazione informativa. La definizione di browsing si basa soprattutto sulla distinzione fra l’esplorazione delle informazioni con destinazione predefinita e l’esplorazione delle informazioni dell’utente in contrapposizione al sistema. La definizione di navigazione, invece sottolinea la responsabilità dell’utente in contrapposizione al sistema. Un documento ipermediale correttamente realizzato dovrebbe poter disporre di un meccanismo per spostarsi da un nodo all’altro, in modo da potersi adattare ai diversi stili di esplorazione delle informazioni.

Di seguito vengono riportati alcuni modi per potersi spostare fra i nodi:

In sintesi, la fruizione deve essere veloce …


<< Home Page >>

 

UNITÀ 2

LA STRUTTURA DELL’INFORMAZIONE IPERTESTUALE

3. IPERTESTI E NAVIGAZIONE

La navigazione equivale ad analizzare la struttura ipertestuale. I nuovi media amplificano le possibilità di realizzare testi che stanno in relazione con altri testi attraverso l’uso dei link o collegamenti. Organizzare i contenuti serve a mettere ordine selezionando, scegliendo ed escludendo, per far emergere le differenze, ovvero l’identità del sito, rispetto agli altri.

La struttura è il rapporto tre le parti e il tutto; è il modello logico attraverso il quale il testo costruisce il proprio senso. È un contesto che attribuisce senso ai suoi contenuti. Ad esempio, un film con una struttura simmetrica, invece, crea dei rapporti di continuità di senso specifici tra le parti del film tra loro speculari (quando c’è un episodio in cui non è accoppiato con gli altri – Ad. es. in “Pulp Fiction con sette episodi in cui il quarto non è accoppiato con il resto).

Le unità d’informazione del testo multimediale, oltre ad avere un’identità propria, assumono dunque senso dal contesto che le circonda e dal loro essere in relazione con altre parti del testo. Forniscono e ricevono senso dalla struttura che le contiene.
Nella fase in cui si definisce la struttura del sito, la gerarchia stabilita precedentemente viene usata per struttura le relazioni tra le unità tematiche secondo modelli adeguati agli assunti e alle funzioni del multimedia.

Durante la fase dell’ideazione, viene scelta, tra le tante possibili, un ben precisa modalità organizzativa con lo scopo di esprimere attraverso di essa un punto di vista e una funzione specifica. Spesso le creazioni dell’uomo sono condizionate dalla progettazione di una struttura. Ciò che avviene nella creazione di una realtà virtuale in un multimedia riflette gli stessi principi adottati nella progettazione di società che avviene nel mondo reale.

Tale scelta guida l’organizzazione dei contenuti all’interno di uno più percorsi principali. Il sito e ogni suo percorso principale si sviluppa dal menu iniziale secondo una sua specifica struttura logica che potrebbe essere di tipo narrativo, argomentativo, tassonomico, ecc.

3.2. PRINCIPALI TIPOLOGIE DI STRUTTURA PER UN SISTEMA MULTIMEDIALE

1. Lineare: unidirezionale e bidirezionale.
2. Lineare con approfondimenti.
3. Parallela o a enciclopedia.
4. Albero.
5. Circolari e simmetriche;
6. Matrice;
7. Aperte e fluttuanti;
8. Rizomatica;
9. Rete neurale o mutante;
10. Amorfe;
11. Molteplice.

1. Lineare o narrativa: unidirezionale e bidirezionale

Questa è la struttura più classica della storia ipertestuale. Una narrazione letteraria potrebbe svilupparsi sintatticamente in un percorso tra sezioni collegate in una sequenza lineare. La possibilità di navigazione può essere unidirezionale e bidirezionale, cioè, direzione “unica” o no, per andare avanti o ritornare nella storia multimediale, ad esempio.

2. Lineare con approfondimenti
Quando una struttura lineare permette di approfondire certi argomenti. Ad esempio, ampliare una definizione.

3. Parallela o a enciclopedia
Una narrazione potrebbe svilupparsi anche tra sezioni appartenenti a percorsi sequenziali multipli paralleli. Un’enciclopedia può essere strutturata secondo criteri analoghi: un indice di voci a ognuna delle quali corrisponde la lettura sequenziale di un percorso specifico. Un ulteriore livello di approfondimento, che per economia visiva non viene espresso nella struttura, permette un intreccio di collegamenti associativi tra le singoli sezioni.

4. Albero
Un’argomentazione potrebbe svilupparsi tra sezioni appartenenti a percorsi sequenziali multipli ramificati ad albero, disposti in tal modo paradigmaticamente in opposizione o relazione tra loro. Nella struttura della diapositiva Nº 16 / 24 il terzo livello può corrispondere dunque a una scelta alternativa oppure a un abbinamento logico su un percorso sequenziale orizzontale. Quest’ultima struttura è una delle più usate nella realizzazione di un sito, particolarmente efficace per siti che hanno una funzione tassonomica (classificazione dal generale al particolare) o argomentativa.

5. Circolari e simmetriche
Le strutture riportate sopra potrebbero aggiungere alla loro morfologia anche la caratteristica di essere di tipo circolare oppure simmetrico. Sono strutture che possono avere una diversità di forma, come ad esempio, l’asse di specularità (vedi diapositiva Nº 21 / 24), cioè, in un percorso unidirezionale la narrazione iniziata in 1 si conclude in 5, quella iniziata in 2 si conclude in 4, mentre la sezione 3 sta da sola.

6. Matrice
È un tipo di struttura particolarmente adatto alla realizzazione di database con accesso a un dato tramite ricerca con due o più parole chiave. L’acceso a un’informazione già strutturata in unità d’informazione denominate “record”, con parole di accesso possibile e “campi” che possono essere organizzati secondo sequenze ordinata alfabeticamente come un sistema multimediale per un dizionario linguistico. Potrebbe inoltre essere adeguato per rappresentare l’organizzazione di siti le cui pagine non esistono ma vengono create dinamicamente come risultato di una ricerca non strutturata. Ad esempio, l’accesso alla informazione tramite i motori di ricerca, a un’informazione di per sé non strutturata, ovvero le pagine Internet che non seguono tutte gli stessi criteri di strutturazione. Sono gli autori del motore di ricerca a decidere le modalità di risposta possibili alle “query” (domanda).

7. Aperte e fluttuanti
Esistono anche tipologie di strutture variabili, ovverosia strutture indeterminate che mutano sia in base all’uso che ne viene fatto (sviluppando percorsi differenti e un intreccio di relazioni indeterminato) sia evolvendo e trasformandosi nel tempo. Queste strutture sono particolarmente adatte per soddisfare alcune caratteristiche specifiche dei nuovi media (lettura non sequenziale + contenuto mobile + possibilità di aprire un dialogo tra autore e utenti: Email, mailing list, newsgroup, chat, videoconferenza, ecc).

8. Rizomatica
Dal termine “rizoma” con cui viene definita la radice della patata. Questa è una struttura aperta e si definiscono tali in quanto ogni parte del testo può potenzialmente essere collegata alle altre parti, dando luogo a testi le cui storie possono essere diverse a ogni lettura, così come i loro finali e soprattutto il senso che esprimono. Storie dunque che si sviluppano secondo percorsi costantemente differenti e mai prevedibili, in quanto dipendenti dalle scelte di navigazione operate dall’utente.

9. Rete neurale o mutante
Quando una struttura ha delle unità nascoste indeterminabili (sebbene rispondano a delle logiche matematiche ben precise) che determinano il comportamento generale della rete. La matematica delle reti neurali prevede delle regole di retroazione in base alle quali le risposte della rete modificano lo stato interno della rete stessa. Questo potrebbe essere paragonato a situazioni in cui le azioni degli utenti possono comportare degli aggiornamenti del sito. Può essere considerata tale un’organizzazione che muta attraverso gli aggiornamenti apportati all’interfaccia dal Webmaster o dal singolo utente.

10. Amorfe
Alcune strutture di tipo variabile possono essere definiti amorfe, ovvero prive di una forma riconoscibile. Questo caso è importante, in quanto fa capire che una struttura non è data solo dal suo aspetto morfologico, bensì anche dai suoi aspetti qualitativi; ovvero, non dai semplici collegamenti tra le unità della struttura, ma anche dalla qualità e dal tipo di rapporti che si vengono a instaurare tra tali unità. Sicuramente però la struttura può, almeno in parte, essere rappresentata graficamente, ed è per questo che il flowchart può diventare uno strumento efficace per rappresentare il senso.

11. Molteplice
Quando una struttura è il risultato di più tipologie di struttura. Si pensi a come gli attuali musei astraggano certi quadri dalla struttura della chiesa che li conteneva originariamente: se la predisposizione che il quadro poteva comunicare nella chiesa poteva tendere verso valori di tipo religioso, nel museo essa si trasforma in una predisposizione a valori di tipo estetico. Un forte vantaggio dei prodotti multimediali risiede nella possibilità di fornire all’utente una molteplicità di strutture attraverso le quali organizzare il medesimo contenuto restituendone nel modo più fedele possibile (dati i limiti della virtualità dell’informazione) i contesti originari all’interno dei quali risiedeva l’informazione.

<< Home Page >>

 

UNITÀ 2

LA STRUTTURA DELL’INFORMAZIONE IPERTESTUALE

4. TOPOLOGIA DEGLI IPERTESTI

4.1. INTRODUZIONE

Quando si parla delle strutture degli ipertesti è importane constatare che si tratta di un puro albero tassonomico, creato ad esempio con un semplice strumento di design come può essere “flowcharter”. Certo qualcuno può pensare che sia una struttura banale che si trova nel 90% dei casi. Il motivo di questa forte presenza risponde al fatto che essa si adatta a qualunque tipo di discorso: una home page, seguita da link tipo: presentazione, cosa facciamo, i nostri servizi, come arrivare da noi, ecc.

Parliamo invece di struttura circolare quando abbiamo ad esempio la rappresentazione di una galleria d’arte, dove il navigatore ha l’impressione di “camminare” all’interno di una mostra con la possibilità costante di consultare il catalogo.
La struttura, la segnaletica ed i contenuti conformano la “topologia” del sistema ipertestuale/ipermediale.

Nello sfondo di un ipertesto esiste la possibilità di trovare “una spirale”. La spirale può riportare i vari temi, e per ciascuno dei temi che sopra di essa si collocano si apre una nuova spirale, che allarga sempre di più il discorso (come la classica spirale di Pierce quando parla di semiosis). Una visione di questo tipo pone le premesse per un’analisi più ricca e dettagliata della topologia delle reti ipertestuali.

A seguito è rappresentate la struttura di un ipertesto a spirale, però attenzione perché la denominazione ‘struttura a spirale’ non dipende solo dalla forma nella figura, ma dal fatto che ad ogni frame è disponibile un link alla successiva, oppure a quella centrale di una sorta di gorgo, che individua in quest’ultima una sorta di centro di attrazione. Un esempio, può essere la struttura a spirale del prodotto multimediale off-line, il Musée d’Orsay (Montpanasse Multimedia – BMG Interactive).
Una tabella segnala la probabilità di passare dalla pagina/frame presente a una di quelle a questa accessibili mediante i link disponibile.

Una tabella presenta la probabilità di passare dalla prima pagina, con un passo alla seconda, alla terza e così via.
Un grafico a forma di stella mostra la probabilità, dopo un certo numero di passi, di trovarsi a una certa pagina, il che evidenzia l’alta preferenzialità topologica (centro di una collana d’opere di un pittore).

4.2. TOPOLOGIA 2D E 3D

Altra alternativa è pensare la topologia degli ipertesti in formato 3D, per capire meglio il problema della metafora e della mappa ipertestuale di un sistema, ad esempio. Come sappiamo l’essenza di un ipertesto sono: links, nodes e buttons.
Altro problema da risolvere e che influenza in modo diretto la topologia è la gestione dei diversi media, perché quando Robert Horn parla di linkages, dice: “ … any place in any of these media can be linked to any other place …”

Mettere insieme tutti questi media non è un lavoro facile, perché esistono diversi linkages:

o Detours and shortcuts (skip to …);

o Notes, commentary and reminders (nota …);

o Analogical linkages (This is like);

o New text (Add this text here);

o Links to other knowledge bases;

o Links in funzione della classificazione dell’informazione.

o Links in ordine cronologico.

4.3. TOPOLOGIA E USO DELLA METAFORA

Footnotes Commentaries

Schede di biblioteca Indice

Cross References Sticky Notes

Quotes Anthologies (somiglianza)

Topologia e la rete: presente e futuro …

Ad oggi, la topologia della rete è di tipo farfalla.

E’ possibile rappresentare la topologia in 3D e la realtà virtuale è un nuovo strumento da considerare quando si parla di topologia e links. La ricerca è costantemente alle prese con nuovi punti di vista di tipo multipli e si cerca di integrare sempre di più la teoria dell’informatica con quella della comunicazione. E’ necessario costruire sempre metafore di topologia vicino al sistema operativo d’uso e fare tanta attenzione alla segnaletica del sistema ipermediale ed al tipo di contenuto.

<< Home Page >>

 

UNITÀ 2

LA STRUTTURA DELL’INFORMAZIONE IPERTESTUALE

5. ATTRIBUTI DI QUALITÀ NELLA STRUTTURA DELL’INFORMAZIONE

5.1. INTRODUZIONE

Oggi uno degli scopi principali dell’editoria multimediale è migliorare la qualità dei prodotti, ma dal punto di vista del disegno, il concetto di qualità può presentarsi in più di un’occasione in modo ambivalente.

La qualità, quando c’è, è di solito trasparente, ma quando non c’è è facilmente riconoscibile (Ceddia, D. “Quality Control for Information Systems Development”. Proc. del IFIP WG3.4/SEARCC, North-Holland (Hong Kong, 1993), pag. 135-141).
Risulta necessario indagare su quali sono i fattori che influiscono sulla qualità di un sistema multimediale.

5.2. PRINCIPALI FATTORI PER LA QUALITÀ DI UN SISTEMA MULTIMEDIALE

• Accessibilità all’informazione.

• Autoevidenza.

• Competenza

• Consistenza.

• Controllo della fruizione.

• Attenzione.

• Orientazione

• Naturalità della metafora.

• Contenuti unidirezionali.

• Livelli di contenuto.

• Organizzazione del testo.

• Pancronismo.

• Riusabilità.

• Universalità

Accessibilità all’informazione

L’accessibilità misura la facilità con cui l’utente trova l’informazione che sta cercando, ossia, se l’utente sta in un determinato luogo del sistema, può cercare di localizzare un nodo, senza necessità di navigare in aree per lui irrilevanti in quel momento.

Autoevidenza

L’autoevidenza misura l’attitudine dell’utente ad avvicinarsi al significato e allo scopo di ciò che gli si presenta per la prima volta. Nei sistemi di ipermedia, l’autoevidenza è divisa in vari livelli:

1. Raggruppare rapidamente gli stili di navigazione dell’applicazione senza aver familiarizzato con tutto il sistema;

2. Capire dall’origine di un collegamento il tipo di destinazione;

3. Comprendere il grado di controllo che è disponibile nei mezzi attivi (video, audio, animazione) e come eseguirli.

Competenza

La competenza consiste nella capacità del sistema di adattarsi alle abilità di navigazione dei principali gruppi di utenti. La precedente esperienza col funzionamento di sistemi multimediali, gli studi (o livello culturale), i motivi e i tempi della fruizione sono elementi che concorrono a creare diversi gruppi di utenti con i loro profili corrispondenti.

Consistenza

La consistenza è la verifica che gli elementi che sono concettualmente uguali hanno un comportamento simile, mentre quelli che sono diversi hanno diversi comportamenti. La consistenza nei sistemi multimediali stabilisce che le entità che rappresentano oggetti di uno stesso tipo dovrebbero avere una struttura simile, ossia uno stesso insieme di componenti, organizzati in base ad una medesima topologia e ad uno stesso modello di navigazione.

Controllo della fruizione

Il controllo della fruizione è il grado di libertà della navigazione concesso all’utente all’interno di un sistema multimediale. Il grado di libertà che l’utente ha su un sistema può essere alto, medio o basso, nel momento di decidere verso quali aree della struttura può dirigersi e quali azioni può svolgere.

Attenzione

L’attenzione è l’insieme dei mezzi dinamici e gli espedienti strutturali che potenziano o promuovono la navigazione del sistema multimediale. La motivazione cerca di concentrare l’attenzione dell’utente sulla necessità di continuare la fruizione del sistema. L’attenzione sullo schermo deve essere sostenuta, ossia, l’utente deve mantenere un’attitudine permanente di aspettativa verso il sistema. Gli espedienti che favoriscono l’attenzione possono essere classificati in questo modo:

• Visivo-dinamico: uso di simboli, oggetti animati (linee, frecce, quadrati o rettangoli, cerchi che simulano le palpebre, ecc.) e illuminazione.

• Visivo-statico: gli stessi espedienti descritti sopra, ma senza animazione.

• Uditivo: suoni, musica o locuzioni di frasi

Orientazione

L’orientazione permette all’utente di capire quale è la sua posizione attuale, dove può andare, e la possibilità di tornare ad un nodo visitato.

Naturalità della metafora

La naturalità della metafora valuta la capacità dell’utente di comprendere l’insieme delle immagini che costituiscono la struttura dell’interfaccia. Un’immagine è naturale quando da sola tende a trasmettere un unico significato. La naturalità dell’immagine è in relazione diretta con la rappresentazione per simulazione del mondo reale. Un modo di presentare o visualizzare il contenuto testuale è attraverso la metafora del libro. Essa è una delle forme più utilizzate e diffuse internazionalmente per emulare la realtà nei sistemi multimediali/ipermediali. Questa emulazione nei sistemi di educazione orientati al pubblico infantile consiste nell’inserimento di linee nel testo come se si trattasse di righe del quaderno, che facilitano la lettura.

Contenuti unidirezionali

I contenuti unidirezionali analizzano l’uso di termini, immagini e suoni dell’interfaccia affinché non producano ambiguità tra il piano del contenuto e il piano dell’espressione. Gli elementi che compongono l’interfaccia sono tutti interrelazionati, e compiono una funzione di ancoraggio o rafforzamento del significato.

Ferdinand de Saussure e Umberto Eco sostengono che è necessario differenziare tra: un idioma, una lingua e un dialetto. Come afferma Saussure, tra lingua e dialetto c’è una differenza di quantità e non di naturalità. Un dialetto porta il nome di lingua perché ha prodotto una letteratura scritta. Questa è un’affermazione proveniente dalla linguistica.

Nielsen J. e del Galdo E. sostengono che gli aspetti linguistici nell’interfaccia devono essere considerati nel momento di progettazione del sistema. Uno stesso idioma in un sistema multimediale può avere un diverso trattamento. Nell’interfaccia “Guida mondiale di automobili” i fattori linguistici fanno sì che l’inglese statunitense venga differenziato dall’inglese britannico. Per ragioni linguistiche nell’internazionalizzazione o globalizzazione del progetto nell’interfaccia, ci sono due opzioni per una stessa lingua nell’applicazione CD-auto.

In riferimento alla sonorità della lingua, qualcosa di simile a quanto descritto in precedenza accade con il castigliano rispetto alla geografia. In alcune regioni spagnole c’è una differenziazione del suono della “s” tra la “c” e la “z”, o della “ll” in relazione alla “y”, rispetto ai paesi di lingua spagnola in America Latina, dove non esiste tale distinzione. Inoltre, la quantità di elementi testuali dal punto di vista del contenuto non subisce alcuna modifica, visto che non c’è un aumento o una diminuzione dell’informazione immagazzinata nella base dati riguardante la sonorità.

Un altro aspetto linguistico che influisce nella progettazione dell’interfaccia è l’estensione degli elementi testuali sullo schermo nell’utilizzo di diverse lingue in un sistema multimediale. Gli elementi testuali in genere variano dal punto di vista dello spazio occupato nella pagina, visto che il totale delle parole di un testo può variare da una lingua all’altra.

Livelli di contenuto

Di seguito verranno analizzati i livelli di contenuto che possono essere definiti come la quantità di informazione a cui l’utente può accedere all’interno del sistema. Questa è una qualità tipica dei sistemi destinati all’insegnamento assistito dal computer (EAO) e all’intrattenimento. La scelta del livello si effettua all’inizio della navigazione. Questa scelta è un’opzione localizzata in genere nella home page.

I contenuti che vengono forniti in relazione al tipo di utente del sistema multimediale possono essere divisi in 3 livelli: basso, medio e alto. Nel livello basso l’utente ha accesso ad una maggiore quantità di informazione rispetto al livello alto. E’ durante la progettazione che si stabilisce la quantità di informazione da mettere in ogni livello; l’utilizzo di uno o più mezzi dinamici simultaneamente (audio-video, audio-animazione, video-animazione, ecc.); la quantità di nodi nei collegamenti guidati; il totale dei componenti in ogni entità, ecc.

Una volta che è stato definito il livello del contenuto, e conoscendo in anticipo l’utente del sistema non è corretto suddividere uno stesso livello in altri tre.

Organizzazione del testo

Un modo efficace di organizzare il contenuto testuale nei sistemi ipermediali è la piramide inversa. Nella piramide inversa ciò che è più importante sta all’inizio, e ciò che è meno importante alla fine.
L’uso della piramide inversa è consigliabile per aumentare la velocità di interazione uomo-computer, principalmente nel caso di enciclopedie, visto che in questo tipo di sistemi multimediali di solito prevale il testo sulle immagini. Negli elementi testuali di tipo statico analizzati prevale l’organizzazione del testo in forma di piramide normale, specialmente nel caso di dizionari ed enciclopedie.

L’organizzazione a piramide normale ammette una divisione in 5 aree interrelazionate:

1. Presentazione o esposizione del tema (anche chiamato lid). In questa area si concentra il contenuto del resto dell’elemento testuale (slot testuale);

2. Spiegazione dell’idea principale. Serve per ampliare la presentazione del tema;

3. Sotto-temi. Distacca altri aspetti relazionati all’idea principale;

4. Informazione contestuale o background. Contestualizza i principali dati del tema che viene presentato;

5. Maggiori informazioni sulla presentazione del tema o lid. In quest’area viene prodotta una ridondanza dell’informazione che di conseguenza aumenta lo spazio di immagazzinamento dell’informazione nella base dati. Infine ci sono i dati di minore importanza o una conclusione.

Le aree 2 e 3 enumerate nella piramide normale vengono unite nella piramide inversa. Perciò ci sono 4 aree soggiacenti e interrelazionate:

1. Il lid è l’area principale in cui viene presentato un riassunto o conclusione del tema in non più di 30 parole;

2. Spiegazione dell’idea principale e sviluppo degli eventuali sotto-temi;

3. Contestualizzazione dell’informazione;

4. Ampliamento del lid.

L’uso della piramide inversa è una tecnica di scrittura che semplifica il contenuto, visto che già dall’inizio l’utente accede al nucleo dell’elemento testuale. Questo è il motivo per cui è preferibile organizzare l’informazione in forma di piramide inversa nei sistemi ipermediali, in particolare quando l’utente non ha esperienza precedente nell’utilizzo di computer. Una rappresentazione grafica delle aree di una piramide normale e inversa si trova nella figura seguente:

Pancronismo
E’ la sincronizzazione di audio, immagini in movimento e testo. Questo è un problema molto frequente nei sistemi multimediali on-line e off-line. E’ fondamentale che i diversi componenti del sistema vengano valutati e collaudati durante la progettazione per evitare la perdita di qualità del sistema.
Il sistema karaoke per imparare una lingua è un bell’esempio in cui risulta facile capire se c’è o non c’è il pancronismo.

Riusabilità

La riusabilità nei sistemi ipermediali consiste nel fatto che gli “oggetti” e le operazioni utilizzate in determinati ambienti possono essere nuovamente utilizzati in contesti diversi e con scopi diversi. Ciò significa che la riusabilità fornisce diversi punti di vista su un medesimo tema, arricchendo cognitivamente l’applicazione per l’utente.

Universalità
Una pagina Web o un CD-ROM possono essere consultati in qualsiasi paese. Perciò esistono una serie di fattori culturali che devono essere rispettati al fine di presentare correttamente i contenuti multimediali a tutti gli utenti internazionali.

 

<< Home Page >>

UNITÀ 3

PROGETTARE IL MULTIMEDIA

1. LE FASI DELLA PROGETTAZIONE

1.1. INTRODUZIONE

La fase di progettazione è di fondamentale importanza nella creazione di un sito Web e/o un sistema ipermediale “off-line” per il fattore umano ed economico. Avere chiaro fin dall’inizio una serie di parametri può permettere di evitare vari sbagli molto comuni che possono portare a grandi perdite di tempo e denaro. Risulta fondamentale nella fase di progettazione:

Quando una persona passa da semplici utilizzatori di Internet e/o CD-ROM – DVD a creatori di contenuti multimediale, è necessario evitare alcuni errori che farebbero perdere molte potenzialità al prodotto finale.

1.2. DEFINIRE GLI OBIETTIVI

Nel caso della progettazione di un sito Web, il primo passo per ottenere questo risultato, sta nel definire nel modo più preciso possibile gli obiettivi del proprio sito. Il “gioco” della domanda retorica è interessante:

Rispondere in modo corretto a domande di questo tipo è fondamentale. Ma entriamo un po’ più nel dettaglio. Innanzitutto, il primo punto da chiarire riguarda il motivo per cui si vuole andare in rete. Basta visitare una decina di siti per rendersi conto del ventaglio di proposte diverse che possiamo trovare sulla rete. A seconda dell’obiettivo, le esigenze cambiano: un sito a carattere personale avrà sicuramente necessità diverse da quello di un’azienda di software che vuole vendere i suoi prodotti on-line. Può essere diverso lo spazio necessario per pubblicare le pagine, il tipo di tecnologia utilizzata o altro ancora.

Avere chiaro l’obiettivo primario è quindi fondamentale. Anche se sembra una cosa automatica, in realtà non lo è. Perché presuppone che si facciano delle scelte, dal punto di vista dei contenuti, della forma e della tecnologia, da cui è difficile poi tornare indietro.

Nel corso del libro “Progettare e sviluppare siti Web” si fa riferimento alla costruzione di un sito per un gruppo musicale. Ma quali possono essere gli obiettivi di un sito del genere?

Come si vede, non necessariamente si ha un solo obiettivo; chiarirseli a priori serve poi a non trovarsi nella spiacevole situazione in cui, arrivati nel mezzo della realizzazione, ci si rende conto che si poteva aggiungere altro (il che ovviamente è sempre possibile ma il più delle volte comporta un’enorme perdita di tempo e denaro, per esempio rifare pagine già chiuse).
Questi obiettivi secondari chiariscono anche che si avranno diversi tipi di informazioni da mettere in rete e quindi si renderanno necessari alcuni accorgimenti di tipo tecnologico.

Esempi di gruppi musicali on-line:

www.alanis.com

www.abbasite.com

www.thebeatles.com

www.the-rolling-stones.com

www.pinkfloyd.com

www.elvis.com

www.petergabriel.com

www.tina-turner.com

1.3. ORGANIZZARE I CONTENUTI E IL MATERIALE A DISPOSIZIONE

Una volta definiti gli obiettivi si può iniziare ad agire in concreto. Che cosa si mette in questo sito?
Innanzitutto occorre definire gli argomenti che verranno trattati. Nel caso di un gruppo le sezioni fondamentali dovrebbero contenere:

Di base questo sarebbe già un buon sito di un gruppo musicale che accontenterebbe la maggior parte dei fan. Ma si possono aggiungere altre cose che possono fare felice ancora di più i sostenitori del gruppo:

E per tutelare gli interessi del gruppo, sicuramente non può mancare un’area di merchandising, dove si vendono i dischi, le videocassette, le magliette, i cappellini, ecc. Altri idee, che possono servire per attirare sul sito l’attenzione di altri utenti: una sezione dedicata ai giochi, o lezioni di chitarra fatte dal chitarrista del gruppo. Un sito con tutto questo materiale diventa veramente complicato da realizzare ed è impensabile partire senza aver pensato a priori a come organizzare tutti questi contenuti (strutturare l’informazione). La struttura di un sito definisce come sono stati organizzati i contenuti al suo interno e come si può arrivare (navigare) in ogni sezione.

1.4. LO STORYBOARD

Lo storyboard, termine preso in prestito dal cinema, definisce il sito ancora più in dettaglio perché vengo forniti gli argomenti, i link e anche indicazioni sull’aspetto grafico di ogni singola pagina.

Uno storyboard fatto bene può essere di grande aiuto quando si va a costruire effettivamente il sito, avendo sempre costantemente sott’occhio come deve essere e che cosa deve contenere ogni pagina (frame). Ovviamente, se il sito consiste in poche pagine, non sarà necessario. In caso di siti come quello del gruppo di musicale.
Questa fase è anche ottima per vedere se si sono centrati gli obiettivi prefissati e se eventualmente ce ne possono essere di nuovi.

Un modo di costruire uno storyboard veloce è con il programma tipo Word. Con questo programma si può creare una tabella a quattro colonne:

Se si utilizza un programma di grafica, ogni pagina può essere indicata da un rettangolo al cui interno vengono scritte le informazioni, magari suddivise in vari campi, relative ai contenuti, alla forma e ai link. Con delle frecce si posso indicare i link tra le pagine.

La prima cosa a cui pensare è la home page, la pagina d’accesso a tutto il resto, in cui, se mantiene tutte le sezioni distinte l’una dall’altra. La suddivisione per il sito è di questo tipo:

- Gruppo: sezione che contiene la storia, le biografie, le foto;

- Note, parole e immagini: canzoni da scaricare, testi e spartiti, discografia, videoclip;

- Fan: sezione con forum e chat, area download, materiale freeware del gruppo;

- Merchandising: sezione che dà la possibilità di acquistare online materiale di vario genere.

- News: le ultime novità;

- In più: sezione contenente il materiale non strettamente attinente al gruppo;

- Link.

Come si può vedere, i link nell’ipotetica home page sono stati ridotti all’osso, a solo sette, più ovviamente uno che fornisce l’indirizzo Email del gruppo. Lo storyboard è in pratica l’equivalente per un sito di quello che è il modello fatto da un architetto di un edificio. Un sito è raramente opera di una singola persona. Più comunemente è il frutto del lavoro di un’équipe: sono troppe infatti le competenze richieste per pensare che una persona sola le abbia tutte.
Ovviamente dipende sempre dal risultato che si vuole ottenere. Se il scopo è quello di mettere in rete poche pagine senza troppi fronzoli non è necessario un gruppo di lavoro.

Diverso è il discorso per siti di dimensioni notevoli e molto complessi. Si possono individuare diversi campi di intervento, ognuno dei quali richiede competenze diverse e quindi il lavoro di una o più persone:

- Il progetto;

- L’aspetto grafico;

- I testi;

- L’aspetto tecnico (programmazione, messa in rete, ecc.).

Come si può vedere, ci sono diversi aspetti da curare; se si vogliono ottenere risultati ottimali, bisogna rivolgersi a esperti in ognuno di questi settori. D’altra parte è bene conoscere tutti gli elementi che stanno alla base della creazione di un sito, perché non sono mai completamente slegati tra di loro.

1.5. UN ESEMPIO PRATICO: E-MARKETING

Quali sono le diverse fasi e le diverse professionalità nella costruzione di un sito? Nel contesto produttivo della creazione di un sito web l'approccio “user oriented” riguarda tutte le fasi della progettazione: dall'analisi di marketing all'implementazione dei database. L'usabilità è un filo rosso che attraversa persone con competenze diverse, animate dal medesimo atteggiamento: attenzione verso l'utente. Fino poco tempo fa in Italia, le fasi di lavorazione di un sito di medie e grandi dimensioni si dividono in questo modo:

• Analisi di marketing: gli analisti di mercato si occupano di:

1. Analisi delle risorse, budget, opportunità;

2. Definizione degli obiettivi e dei target del sito a breve e medio termine (Internet business plan);

• Progettazione e Information Architecture: gli esperti di content design si occupano di:

1. Analisi del benchmarking;

2. Analisi delle risorse informative attuali e potenziali (pubblicazioni, redazioni, etc.);

3. Stesura del concept, definizione delle diverse aree del sito e loro relazioni;

4. Definizione dei flowchart (ramificazione degli argomenti);

• Comunicazione: i graphic designers si occupano di:

1. Layout, look & feel della home page;

2. Look & feel dei template del sito;

3. Storyboard e grafica di eventuali animazioni;

• Web development e/o programmazione Web: i programmatori web si occupano di:

1. Integrazione tra look & feel e altri linguaggi (css, javascript, dhtml, etc.);

2. Integrazione con i tag dinamici (asp, php, etc.);

3. Implementazione di linguaggi dinamici (php, asp, cgi, jsp , etc.);

4. Integrazione con database;

5. Manuntezione del sistema.

In conclusione possiamo affermare che la fase di progettazione di un sito consiste nei seguenti passaggi:

• Definizione degli obiettivi;

• Definizione dei contenuti e del materiale da utilizzare;

• Scelta della struttura con cui organizzare i contenuti;

• Creazione dello storyboard.

Altri consigli sono:

• È importantissimo navigare il più possibile perché dal lavoro degli altri si può imparare tantissimo;

• L’analisi critica dei siti, in base ad aspetti come la navigabilità, la facilità di reperire le informazioni, le tecnologie utilizzate in funzione dei tempi di caricamento e per rendere accessibili a più utenti le pagine, è un esercizio che va fatto continuamente;

• D’altra parte è importante anche sottoporre ad altri il proprio lavoro perché è facile perdere l’obiettività particolarmente quando si è troppo coinvolti (accettare le critiche, ovviamente se sono costruttive).

• Infine, mai scoraggiarsi se si fanno degli errori...

 

<< Home Page >>

 

UNITÀ 3

PROGETTARE IL MULTIMEDIA

2. L’USABILITÀ E LA COMUNICAZIONE

2.1. INTRODUZIONE


Il termine “usabilità” significa utilizzabilità, facilità di utilizzo e deriva da un approccio nuovo alla creazione dei siti Web, basato sull’utente ed il suo rapporto con l’interfaccia, cioè sulla base delle finalità che l’utente si propone di ottenere a seconda del sito che sta visitando.

Le analisi di usabilità si differenziano dalle semplici valutazioni svolte con altri approcci soprattutto per la verificabilità dei risultati e per il contributo concreto che portano al processo di design. Tale contributo focalizza l'attenzione su aspetti specifici e realizzabili. E' importante sottolinearlo: l'usabilità non dà pagelle ai disegnatori, ma tenta di aiutarli a risolvere problemi che emergono durante l'interazione tra utente e interfaccia. Sottolineare questo aspetto è compito degli esperti di usabilità e può alle volte contribuire anche a vincere le resistenze alla collaborazione di una parte dello staff coinvolta nel progetto.

L’usabilità è quindi determinata da diverse caratteristiche, che dipendono anche dagli obiettivi da verificare: ad esempio se si tratta di valutare l’usabilità di un sito giornalistico, si valuterà l’efficienza nel dare informazioni aggiornate e la chiarezza; in un sito E-commerce, si valuterà l’efficacia nel favorire gli acquisti on-line, in altre parole si valuterà se il sito risponde e in che modo, alle aspettative dell’utente.

In particolare J. Nielsen ha riassunto le caratteristiche di usabilità di un sito nell’acronimo “HOME RUN” ovvero: High-quality, Often, Minimal, Ease, Relevant, Unique, Net-centric.

Con High-quality si indicano i contenuti di alta qualità, con Often, la frequenza degli aggiornamenti, con Minimal, i bassi tempi di scaricamento, con Ease, la facilità d’uso, con Relevant si indica in modo appropriato le esigenze degli utenti, con Unique, l’unicità delle caratteristiche del medium Web, con Net-centric, la centralità della rete nel fondamento della cultura aziendale, universitaria e così via.

2.2. DEFINIZIONE DELL’USABILITÀ: LA NORMATIVA ISO E J. NIELSEN

Lo standard ISO/IEC 9126 “Information Technology - Software product evaluation - Quality characteristics and guidelines for their use” definisce l'usabilità come 'la capacità del software di essere compreso, appreso, usato e gradito dall’utente quando usato in determinate condizioni'.

Lo standard ISO 9241-11 “Ergonomic requirements for office work with visual display terminals - Guidance on usability”, invece, definisce l'usabilità come 'il grado in cui un prodotto può essere usato da specifici utenti per raggiungere specifici obiettivi con efficacia, efficienza e soddisfazione in uno specifico contesto d'uso'.

Jakob Nielsen, definisce l’usabilità come la misura della qualità dell'esperienza dell'utente in interazione con qualcosa, sia esso un sito web o un applicazione software tradizionale o qualsiasi altro strumento con il quale l'utente può operare
Secondo Nielsen, un prodotto è usabile quando è facile da apprendere, consente una efficienza di utilizzo, è facile da ricordare, permette pochi errori di interazione e di bassa gravità, è piacevole da usare.

In sintesi, quindi, per essere usabile, un prodotto deve:

  1. essere adeguato ai bisogni e alle aspettative degli specifici utenti finali che lo usano in determinate condizioni;
  2. risultare facile da capire, da imparare, da usare, ed essere gradevole;
  3. consentire di eseguire le specifiche attività lavorative in modo corretto, veloce e con soddisfazione

Questi tre punti, oltre che sintetizzare i vari aspetti che le diverse definizioni di usabilità evidenziano, pongono l'accento su alcuni passi e attività da compiere durante il ciclo di produzione al fine di garantire l'usabilità del prodotto.

Infatti, affinché un prodotto sia adeguato ai bisogni e alle aspettative degli utenti finali, occorre conoscere bene le caratteristiche degli utenti, le attività che svolgono e il contesto organizzativo e sociale nel quale sono inseriti e operano.
Per quanto attiene invece la facilità di comprensione e di utilizzo, allo stato attuale, sono disponibili linee-guida di progettazione consolidati, basati sulle conoscenze degli aspetti cognitivi e comportamentali dell'interazione uomo-computer, che possono agevolare la realizzazione di un prodotto usabile.

Tuttavia, questi aspetti non sono sufficienti. Per garantire l'usabilità è di fondamentale importanza confrontarsi costantemente con gli utenti finali, con coloro che saranno direttamente operativi sul prodotto una volta rilasciato, per verificare, valutare e, eventualmente, misurare le scelte di progettazione in termini di reale soddisfacimento dei requisiti utente.

2.3. VANTAGGI DELL’USABILITÀ NELLA PROGETTAZIONE

Ancora oggi, in diversi contesti produttivi, si tende a sottovalutare l'usabilità, ritenendo che essa comporti dei costi che non vale la pena affrontare dal momento che non si intravedono vantaggi immediati per l'azienda produttrice.
Spesso si crede anche di poter risolvere i problemi degli utenti nell'utilizzo dei prodotti allestendo e predisponendo moderni e sofisticati centri di assistenza o call center. Alla base di queste credenze vi sono ragioni storiche, ragioni legate ai modelli produttivi e ragioni culturali.

Quello che va considerato, invece, è che un prodotto inusabile può essere quasi del tutto inutile (vale la regola se l'utente non la trova, la funzione non esiste) o, peggio, può rappresentare un costo notevole (ne sanno qualcosa gli americani che, in occasione delle elezioni presidenziali del 2000, si sono trovati ad affrontare non pochi problemi dovuti anche all'utilizzo di schede evidentemente poco usabili).

Una produzione non orientata all'usabilità e, in definitiva, alla qualità del prodotto, non fa altro che spostare in avanti, nel ciclo di vita dei prodotti, i costi di produzione, spesso maggiorandoli e facendoli pesare quasi interamente sull'utente finale.
I vantaggi che derivano dall'usabilità è ovvio che essi non riguardano solo gli utenti finali, ma anche l’industria (piccola, media o grande).

In sintesi, per l’industria i benefici si evidenziano in termini di:

• Incremento della vendite;
• Incremento della qualità dei prodotti;
• Incremento della produttività attraverso:
• Riduzione dei tempi di sviluppo,
• Riduzione degli interventi e dei costi di manutenzione,
• Riduzione degli interventi e dei costi di assistenza (ad esempio, dei call center),
• Riduzione dei costi della formazione per gli utenti finali,
• Riduzione della documentazione utente (manuali e guide operative) e dei tempi per la sua realizzazione.

Per gli utenti finali i vantaggi si evidenziano in termini di incremento della produttività attraverso:

George M. Donahue e altri della Compuware Corporation, in un interessante documento dal titolo “Usability is good business”, dove sono riportati numerosi esempi dei vantaggi economici derivanti dall'usabilità in America, concludono questo: il rapporto costi/benefici nell'ingegneria dell'usabilità è di 1 a 10-100, che vuol dire che per ogni dollaro speso per implementare l'usabilità, l'azienda ne realizza un beneficio tra 10 e 100 dollari.

Altri dati erano riportati sul sito della Sun, ma oggi non più disponibili in Rete: si dimostrava che l'esecuzione di una analisi di usabilità, il cui costo si aggira in media sui 20,000 dollari, determina un risparmio economico di 153 milioni di dollari in termini di riduzione dei costi di call center e aumento della produttività degli utenti (certamente una realtà diversa alla nostra).
Una buona analisi dei costi/benefici della progettazione orientata all'usabilità, con tanto di cifre, è riportata anche sul sito della Scuola Superiore G. Reiss Romoli, alla pagina Usabilità: costi-benefici.

2.4. I CONFINI IMPRECISI DELL’USABILITÀ

Diversi ricercatori, nel tentativo di chiarire il concetto di usabilità, si sono trovati in difficoltà a tracciarne i confini.
Attualmente, l'autore che sembra incontrare i favori della comunità che ruota attorno all'HCI è Shackel (in Morris e Dillon 1996), secondo il quale l'usabilità di un artefatto consiste ne "la sua capacità, in termini di caratteristiche cognitive umane, di essere utilizzato facilmente ed efficacemente da una specifica categoria di utenti, posto uno specifico esercizio e supporto all'utente, per svolgere specifiche categorie di compiti, all'interno di specifici scenari ambientali".

Kunkel, Bannert e Fach (1995), facendo riferimento ai testi di Shackel, affermano che il contesto generale dell'usabilità abbraccia le quattro principali componenti di una situazione di lavoro: utente, compito, sistema ed ambiente.
Secondo Shneiderman (1997), nel concetto di usabilità vanno identificate quattro dimensioni principali: l'efficienza (efficiency), la facilità di apprendimento (learnability), la facilità di ricordare i comandi principali (memorability), la soddisfazione nell'uso (satisfaction).

Il concetto di usabilità, inoltre, va considerato come prettamente pratico, e la sua analisi deve fornire linee guida operative per la progettazione. Infatti, al centro del concetto di usabilità c'è la consapevolezza che ogni alternativa di progettazione deve essere valutata il più presto possibile con gli utenti potenziali del prodotto stesso.

L'obiettivo della valutazione è quello di assicurare che i prodotti software siano caratterizzati da: brevi tempi di apprendimento, rapida esecuzione dei compiti, basso tasso di errore, facilità nel ricordare le istruzioni di base, alta soddisfazione dell'utente.

Anche Morris e Dillon (1996) concordano nel considerare il concetto di usabilità come difficile da definire. Secondo questi Autori, essa viene spesso identificata solamente come un attributo dell'interfaccia, piuttosto che come una qualità propria del prodotto considerato nella sua totalità.

Un aspetto molto importante che viene evidenziato dalla ricerca di Morris e Dillon, riguarda l'importanza che viene attribuita al fattore usabilità dai diversi membri componenti un'organizzazione. Mettendo a confronto le risposte fornite dai responsabili del sistema informatico interno di diverse organizzazioni con quelle date dagli utenti finali dei prodotti informatici dell'azienda, emerge chiaramente una differenza sostanziale nell'approccio al concetto di usabilità.

Mentre gli utenti finali considerano la facilità di utilizzo del software il parametro più importante, i manager di sistema, nella maggior parte dei casi, non la prendono nemmeno in considerazione al momento dell'acquisto di un prodotto informatico, ovvero, nel migliore dei casi, la subordinano ad altre caratteristiche, come il prezzo o la potenza di calcolo.
Questi risultati evidenziano come si sia ancora lontani da una piena accettazione dell'usabilità come parametro fondamentale per una scelta che soddisfi pienamente gli utenti finali.

Una soluzione provvisoria a questo problema di confini è questa:

Il problema rimane ancora aperto perché la base della soluzione è la scienza della comunicazione umana.

2.5. ALCUNI CENNI STORICI

La storia dell'usabilità è iniziata circa 25 anni fa, quando il computer ha iniziato ad uscire dagli ambienti strettamente riservati ai progettisti e programmatori software. Fino agli anni ‘80, infatti, il software veniva prodotto e utilizzato prevalentemente dai progettisti ed è ovvio che, se l'utente di un prodotto è la stessa persona che lo ha costruito, l'usabilità è garantita e il problema non si pone. Nel 1983, presso la Apple, viene realizzato il primo computer con interfaccia grafica e mouse, destinato alla diffusione su larga scala. Da questo momento inizia l'introduzione sempre crescente del computer (con interfaccia grafica o a carattere) nel modo del lavoro, negli uffici e, progressivamente, nelle nostre case. E iniziano i problemi di usabilità.

In questo primo periodo, l'approccio alla realizzazione è guidato prevalentemente dalla disponibilità tecnologia, demandando alla successiva formazione le spiegazioni per gli utenti finali sulle modalità di utilizzo. I costi di formazione, il verificarsi di numerosi errori di interazione utente-computer, l'evoluzione e la diffusione degli studi sul fattore umano condotti in diversi contesti produttivi da psicologi e ergonomi portano ben presto ad una riflessione sull'importanza dell'utenza finale.
Al fine di agevolare l'usabilità, come prima cosa, si tenta di introdurre nei processi di produzione le linee-guida sul fattore umano. Le prime linee-guida per le interfacce grafiche furono scritte alla Apple, nel 1978. Dopo loro pubblicano il libro “Macintosh Human Interface Guidelines”.

Vengono sviluppati i primi modelli formali dell'utente, basati sulle ricerche di psicologia cognitiva, che evidenziano i limiti umani di elaborazione dell'informazione e stabiliscono i requisiti minimi che un prodotto software dovrebbe avere.
Nascono anche i primi laboratori di usabilità, nei quali lavorano esperti di usabilità ed ergonomi, con il compito sia di sviluppare linee-guida e modelli di utenza sia, soprattutto, di valutare l'usabilità dei prodotti. In questo periodo si sviluppa l'ergonomia cognitiva, come campo di studio e di applicazione delle conoscenze della psicologia cognitiva alla progettazione delle interfacce e del dialogo uomo-computer. Ben presto ci si rende conto tutto questo non è sufficiente e che eventuali, anzi assai probabili, difetti di usabilità rilevati nella fase finale di valutazione potevano raramente venire corretti per problemi di costi e di tempi (è nata da qui l'idea che l'usabilità sia più che altro un costo per i produttori).

Si interviene quindi sui processi di produzione. I primi tentativi di cambiamento riguardano l'integrazione del modello “a cascata” con attività tipiche dell'usabilità. Si integra la fase di analisi dei requisiti con metodiche volte a migliorare l'individuazione dei bisogni degli utenti sia in termini di funzionalità effettivamente necessarie che di usabilità; vengono condotti sempre più frequentemente test di usabilità.

Siamo verso la seconda metà degli anni ‘80 e in Scandinavia di afferma il cosiddetto 'modello partecipativo' (una depurazione del modello partecipativo affermatosi in Italia nei primi anni 70) che sostiene la necessità del coinvolgimento, fin dalle prime fasi della progettazione del lavoro, di coloro che quel lavoro fanno e faranno.

Nel 1986 viene pubblicato il libro di D. Norman (socio attuale di Nielsen) e S. Draper “User Centered System Design: New Perspective on Human-Computer Interaction”. Questi eventi aprono la porta ad un nuovo modo di vedere l'utente finale e la progettazione dei sistemi software.

Ci si rende conto che l'utente non può essere preso come un singolo individuo, avulso dal contesto nel quale opera, ma va visto come soggetto che appartiene ad una cultura e ad una organizzazione.

L'utente è uno dei componenti del processo decisionale distribuito, che fa uso di molteplici artefatti cognitivi e sociali, anch'essi distribuiti, che caratterizzano una organizzazione e la rendono unica. Il modo stesso di utilizzare le tecnologie è influenzato dallo specifico contesto all'interno del quale le tecnologie si trovano e nessuno meglio degli utenti stessi possiede quella "conoscenze situata" che consente di decretare l'adeguatezza o l'inadeguatezza di un prodotto rispetto agli scopi per cui è stato costruito.

Per questi motivi l'introduzione di linee-guida sul fattore umano o la definizione di specifiche generiche non poteva portare alla reale usabilità dei prodotti. Con il modello “user centered”, che inizia ad affermarsi su larga scala alla fine degli anni 80, si riconosce l'importanza non solo delle capacità e dei vincoli fisici e cognitivi dei singoli utenti, ma anche delle relazioni culturali, sociali e organizzative, nonché degli artefatti cognitivi distribuiti nell'ambiente che influenzano il modo di lavorare dell'uomo.

2.6. PREVISIONI PER IL FUTURO DELL’USABILITÀ: AREA DI RICERCA

L’accessibilità per gli utenti disabili

• Handicap connessi all’età;

• Handicap visivi, uditivi, verbali, motori, cognitivi.

Servire un pubblico internazionale:

• Internazionalizzazione e localizzazione.

• Progettare per l’internazionalizzazione.

• Siti tradotti e siti multilingue (la scelta della lingua, ricerca multilingue, una lingua, un URL?).

Web è il cambiamento, pensiamo ad esempio agli infodomestici.

Adattamento ed inserimento della ingegneria della usabilità alla nuova teoria della comunicazione (ecco una prima soluzione al problema dei confini):

Fine della Usabilità --> Era della comunicazione umana “libera”.

L’usabilità e legata alla qualità del sito Web o un supporto della informazione interattiva e digitale off-line.
Jakob Nielsen definisce 5 attributi di qualità per un sistema informatico (1989):

• Efficacia: la misura in cui un utente è in grado di raggiungere l'obiettivo di un compito in modo corretto e completo;

• Efficienza: la quantità di risorse spese in relazione all'efficacia;

• Soddisfazione d'uso: la piacevolezza e l'attitudine positiva verso il prodotto;

• Facilità di apprendimento: la curva di apprendimento di un utente dal momento che usa la prima volta il prodotto software al momento in cui esegue i compiti fondamentali abbastanza bene;

• Facilità di ricordo: la misura in cui le modalità di utilizzo del prodotto vengono memorizzate dall’utente

 

<< Home Page >>

 

UNITÀ 3

PROGETTARE IL MULTIMEDIA

3. SELEZIONE DEI MEDIA: TESTI, IMMAGINI E AUDIO

3.1. INTRODUZIONE

Il punto di vista dell'utente è la prima cosa di cui tenere conto nella progettazione e produzione di un sito web, però ecco una situazione che si può trovare l’utente di fronte a una interfaccia multimediale:

• Interfacce misteriose: esistono anche home pages prive di descrizioni esplicite che richiedono un approccio “esplorativo”. In genere un javascript al passaggio del mouse rivela i contenuti dei link misteriosi.

• Caricamenti lenti: quando dopo due minuti di attesa ancora permane la scritta, “Loading, please wait”. O quando - peggio - non succede proprio niente. La maggior parte lascia perdere, rivolgendo la sua attenzione a un altro dei tanti siti presenti sul web.

• Uso smodato delle tecnologie

• Flash, applet java, javascript che scorre nella barra del browser. La pagina sta caricando a fatica e ... Attenzione! è saltato tutto, bisogna ricorre al vecchio e traumatico riavvio o reset del PC (ecco un sito in cui non tornare più).

• Home pages per Browser specifici: “Questa pagina è visibile con Explore 5.31 se usate altri browser ecco il link per scaricarlo”. A volte l'ingenuità dei progettisti è quasi disarmante: si aspettavano che qualcuno andasse sul sito della Microsoft, si sobbarcasse il riempimento un form infinito, scaricasse un software da 10 Mb. con un download della durata complessiva di circa sette ore, per poi iniziare l'installazione e riavviare il computer?

• ASP senza ritorno: le Active Server Pages hanno moltissimi pregi, ma a chi è capitato di compilare un form di tre pagine scegliere “invia” e poi tornare indietro per scoprire che la pagina se n'è andata per sempre (expired), la cosa è piuttosto seccante. In altre parole occorre passare il doppio del tempo a ricompilare tutto da capo. Quando il tasto “back” non funziona i siti diventano piuttosto scomodi da usare.

• Pop-up Windows: iventa intollerabile quando la finestrella si apre per pubblicità, è a malapena sopportabile quando approfondisce il contenuto di una pagina, ma è un profondo e imperdonabile atto di maleducazione quando si apre tutte le volte che si preme un tasto back, o peggio ancora quando ne apre un'altra a sua volta.

• La scelta più facile sarebbe quella di cadere nel tranello della tecnologia a tutti i costi, del “facciamo colpo sul cliente”. Mentre, nel costruire schemi di navigazione, grafica e iperbase occorre sempre chiedersi: “come si comporteranno i visitatori, che vantaggi ne trarranno?”.

• L’esperienza di navigazione del lato dell’utente si chiama: “user experience” composta da:

  1. Comportamento (Che cosa fa l’utente?);
  2. Risultato (Che cosa ottiene?);
  3. Sensazioni (come si sente?)

In tutte le fasi della progettazione occorre sempre avere ben chiari gli obiettivi che si vogliono raggiungere, conoscendo soprattutto le necessità degli utenti, prevedendo i loro comportamenti nel sito. Per evitare tutte le situazione d’errore nella fruizione del contenuto multimediale, è fondamentale preparare e scegliere correttamente le immagini digitali, l’audio, i video, le animazioni e soprattutto il testo nella progettazione. Inoltre, verificare l’usabilità del disegno del sistema ipermediale. Tutto questo per mantenere l’attenzione del nostro utente reale, come altri potenziali.

3.2. PREPARARE IL TESTO

Componenti da considerare nel momento della progettazione testuale. Si visita un sito alla ricerca dei contenuti: si darà un’occhiata veloce alla parte dello schermo dedicata ai contenuti e solo se questi risulteranno interessanti, si passerà a guardare l’area di navigazione.

La comunicazione sul Web deve tenere conto degli aspetti peculiari di questo strumento. Leggere sullo schermo è circa il 25% più lento e faticoso rispetto alla lettura su carta, e il livello dell’attenzione che gli utenti hanno nei confronti della pagina è molto breve, grazie ad un clic, infatti, possono scegliere tra milioni di altre pagine.
Per ovviare a questi problemi è necessario quindi seguire le seguenti linee guida:

• Essere concisi: il lettore multimediale è disposto a leggere il 50% di informazioni in meno di quante ne avrebbe lette su una versione cartacea. Il problema dell’utilizzo di meno parole, dà molto più valore alle parole stesse;

• il colpo d’occhio del testo è importante: meglio evitare brani eccessivamente lunghi, ma scrivere piuttosto paragrafi brevi con due o tre livelli di titoli, usando titoli che abbiano significato anziché titoli ad effetto; per evitare blocchi ti testo compatti, preferire elenchi puntanti o enfatizzare le parole importanti per attirare l’attenzione dell’utente;

• usare l’ipertesto per spezzare grandi quantità di informazioni su diverse pagine.

Per quanto riguarda l’aspetto linguistico è meglio privilegiare un linguaggio semplice, con strutture linguistiche e lessicali poco complesse. Anche l’uso di metafore è sconsigliabile.

Gli utenti fanno largo uso dei motori di ricerca per trovare il materiale o il prodotto che stanno cercando con maggior rapidità.
Il sito è solo un’intestazione sul risultato di tali motori di ricerca, è quindi importantissimo usare intestazioni significative. Le stesse intestazioni vengono usate per essere aggiunte alle liste dei “preferiti” e nelle liste cronologiche delle pagine visitate.
Il titolo deve produrre il microcontenuto del macrocontenuto ad esso associato, deve essere scritto in un linguaggio semplice, non ambiguo. La prima parola del titolo deve essere la più importante, per questo motivo è meglio non utilizzare articoli.
La leggibilità di una pagina è assicurata dalla corretta scelta dello sfondo e del testo, in modo che creino un forte contrasto. Normalmente si ottiene la migliore leggibilità con lo sfondo bianco e testo nero. Meno contrasto si crea, maggiori saranno le difficoltà di lettura.

Gli sfondi grafici anche se molto spettacolari, rallentano la lettura perché affaticano la vista nel riconoscimento dei caratteri e delle parole. Le dimensioni del testo devono permettere una facile lettura così come è meglio optare per testi statici, perché il testo che si muove o cambia colore o dimensione è molto difficile da leggere.

Per inserire / creare il testo per un sito o applicazione multimediale off-line, c’è il Word, PageMaker, ecc. Inoltre, esiste la possibilità di fare una scansione di un testo esistente.

3.3. PREPARARE LE IMMAGINI

3.3.1. COMPONENTI DA CONSIDERARE NEL MOMENTO DELLA PROGETTAZIONE ICONICA

• Immagini bitmap e immagini vettoriali (caratteristiche).

• I modelli e i metodi dei colori:

HSB = Hue (tonalità), Saturation (saturazione), Brightness (luminosità). Questo modello si basa sul modo in cui il colore viene precepito dall’occhio umano.

RGB – Red, Green, Blue (rosso, verde e blu). Questo modello è più frequentemente utilizzato quando si gestiscono i colori con il computer.

Il modello CYMK – Cyan, Yellow, Magenta, Black (ciano, magenta, giallo e nero): e quello più frequentemente utilizzato quando si gestiscono i colori con il computer.

Il modello Lxaxb – secondo questo modello, che ha la caratteristica di essere indipendente dalla periferica, ogni colore è indiviuato da tre parametri, cioè la luminanza (L), e da due componenti cromatiche, la componente (a) che va dal verde al rosso, e la componente (b), che va dal blu al giallo.

Con ciascuno di questi sistemi si può descrivere l’intera gamma di colori (circa 16,7 milioni).


• La compressione:

LZW = La forma di compressione utilizzata del formato GIF prende il nome di compressione LZW, dalle iniziali dei suoi creatori, Lempel, Ziv e Welch. È un tipo di compressione lossless, senza perdita di informazione ed è particolarmente efficace con immagini con grandi aree di colore uniforme, come per esempio immagini in bianco e nero e icone. Il file GIF ottenuto con questa tecnica di compressione avrà un aspetto completamente identico all’originale.

JPEG = Questo formato utilizza invece una forma di compressione lossy. Il file ottenuto avrà quindi perso informazioni rispetto all’originale. Quando si salva un’immagine in formato JPEG è possibile scegliere la quantità di compressione da applicare, come si vede nella seguente figura di Corel PhotoPaint.

• Altre forme di compressione:

RLE – (Run Length Encoding): supportata dai formati TIFF, Photoshop e da alcuni formati di file Windows, è una tecnica di compressione lossless.

ZIP – Questa codifica, supportata come già è stato detto dal formato PDF, è una tecnica di compressione lossless.

• Digitalizzare foto e immagini: Fotocamere digitali e scanner.

• I software per la grafica bitmap: lavorare con Photoshop.

• I software per la grafica vettoriale: lavorare con Illustrator e/o Corel Draw.

• Indirizzi on-line che possono aiutare per preparare le immagini:

www.adobe.com, www.corel.com, www.macromedia.com, www.font.it,

www.freegraphics.com, www.screamdesign.com, www.cooltext.com

3.4. L’AUDIO
I suoni si possono associare ai vari oggetti che compongono una pagina Web, facendo in modo che vengo richiamati quando l’utente compie una determinata azione. Per esempi, emettere un suono ogni volta che l’utente passa con il puntatore del mouse su un pulsante. Oppure si può associare un sottofondo musicale direttamente a una pagina Web. I due formati più utilizzati per l’audio digitali sono il formato Wave per la piattaforma Windows, i cui file hanno estensione “.wav”, e il formato AIFF per piattaforma Macintosh, i cui file hanno estensione “.aif”.

Sono entrambi formati molto versatili, in grado di supportare suoni mono o stereo, diverse risoluzione e frequenze di campionamento. Sono entrambi particolari tipi di IFF (Interchange File Format), un formato che immagazzina i dati in blocchi di memoria, chiamati “chunk”, costituiti da una serie di byte.

Ma il formato che attualmente sta spopolando di più su Internet è sicuramente l’Mp3. Un formato che sfrutta il metodo di compressione omonimo MPEG 1 layer III ed è stato messo a punto dal gruppo di ricerca Fraunhofer IIS che fa parte dell’organizzazione MPEG (Moving Picture Expert Group). Con la compressione MPEG 1 (Mp3) si ottengono risultati incredibili: oggi è possibile raggiungere rapporti di compressione di 1 a 12, il che significa che, se si parte da un file in formato Wave di 10 Mb. si ottiene un file Mp3 di 1,25 Mb, ottenendo un guadagno in termini di dimensioni pari a 8,75 Mb.

Un risultato notevole che acquista ancora più importanza se si tiene conto che la qualità del file Mp3 risultante è equiparabile a quella del file Wave di partenza, non ci sono in pratica differenze percepibili all’orecchio umano.
Inoltre i file Mp3 presentano un particolare tab: ID3 che permette di inserire nel file il nome o l’autore del brano o altri commenti. Con un programma per l’editing è possibile modificare a piacere un file audio, tagliando, aplicando degli effetti di suono e così via.

Un interessante programma è Sound Forge della Sonic Foundry. Sito per scaricare una demo: www.sonicfoundry.com
Per inserire suoni si può cercare nella rete o lavorare con prodotti in CD-ROM. Indirizzi per sapere di più:

www.harmony-central.com

www.samplenet.co.uk

www.mp3.com

www.mp3italia.com

www.syntrillium.com

 

3.5. I VIDEO E LE ANIMAZIONI

3.5.1. IMMAGINI E FOTOGRAFIE

Le immagini e le fotografie richiedono tempi di caricamento lunghissimi.
Quando si parla di E-commerce, gli utenti però devono poter vedere le immagini dei prodotti che intendono acquistare, dal momento che non possono toccarli! Per ovviare a questo problema, si metteranno poche immagini di piccole dimensioni nelle pagine generali, nel caso che l’utente abbia veramente interesse nel prodotto potrà, seguendo i link dalla pagina iniziale, trovare foto dettagliate del prodotto selezionato.
Esistono diversi formati per “salvare” le immagini da visualizzare, come .jpeg, .tiff, .gif, .bmp, a seconda della definizione che si vuol dare all’immagine e della tipologia dell’immagine stessa. I più diffusi in Internet sono .gif, perché più leggeri da scaricare.

3.5.2. ANIMAZIONI

Le immagini in movimento catturano l’attenzione. La nuova tendenza vede le animazioni impiegate quando necessarie e non come ammennicoli per farcire il testo.
Vi sono vari tipi di impiego di animazioni che sono utili all’utente per:

3.5.3. FORMATI

I file video vengono memorizzati utilizzando diversi formati:

o Video for Windows: formato i cui file hanno estensione “.avi” (audio video interleavead) che è stato sviluppato da Microsoft.

o QuickTime: è uno dei formati più utilizzati su Internet. È stato sviluppato da Apple e i suoi file hanno estensione “.mov”. Un file QuickTime può essere visualizzato all’interno di un browser utilizzando un appropriato plug-in.

o MPEG: questo formato, i cui file hanno estensione “.mpg”, è stato sviluppato dal Moving Picture Experts Group. Le sue caratteristiche di compressione e flessibilità lo rendono particolarmente adatto per i filmati da utilizzare su Internet.

o QuickTime Pro: con QuickTime Pro non solo si può riprodurre i filmatiti QuickTime ma anche si può modificarli. Infatti oltre a PlugIn, il software che permette al browser di riprodurre e registrare i filmati QuickTime, QuickTime Pro comprende anche QuickTime Player, un software per l’editing dei filmati. Le estensioni QuickTime, un software di sistema che permette la riproduzione e la modifica dei filmati mediante applicazioni di vario genere, come quelle per l’elaborazione del testo e della grafica e PictureViewer, un software che consente di visualizzare le immagine. La versione Pro di QuickTime si può comprare all’indirizzo:

www.apple.com/quicktime

Una volta scaricato e installato sul computer, è possibile lanciare e aprire un filmato come l’edizione del file.

3.6. CONCLUSIONI

Ecco un appendice di programmi di tipo shareware e freeware che possono essere molto utili per la gestione e l’implementazione del sito, come la creazione e l’animazione di titoli 3D, icone, screen saver, mappe di immagini …
Creazione e animazione di titoli 3D: Il primo software presentato è un programma della Ulead. Uno di questi programmi è Cool 3D, utile per creare velocemente titoli 3D animati. La versione shareware del programma si trova: www.ulead.com
Creazione di icone: Dmitry G. Kozhinov mette a disposizione di tutti il suo programma shareware “iconed20” per generare in tempo record delle icone.

Il programma ImageCarousel (www.screensaver.com) mette a disposizione degli utenti sfondi da scaricare che posso essere utile come sfondi di pagine Web, per esempio. Esistono alcuni software creati specificamente con mappe di immagine (aree sensibile – hotspot) che posso poi essere utilizzate nel sito Web o al interno di un DVD, per esempio. L’indirizzo è: www.globalscape.com. Una volta lanciato il programma, si deve aprire un’immagine (nei formati GIF o JPEG) su cui creare una nuova mappa e nella parte inferiore c’è il codice Html.

La selezione dei media è un lavoro molto speciale, dove la variabile “aggiornamento tecnico” è fondamentale.
Ricordare sempre le necessità degli utenti e la loro “user experience”.
Cercare di elaborare un contenuto testuale interessante e aggiornato.
Selezionare correttamente la gamma cromatica (colori) della interfaccia.
Per l’audio usare il formato Mp3 e per l’immagine il “gif”.
Inserire immagine animate e video d’accordo alla necessità del contenuto e creare un mapping (hotspot) della immagine centrale, ad es.
Navigare in modo costante per trovare tutte l’ultime novità e software freeware e shareware.

 

<< Home Page >>

 

UNITÀ 3

PROGETTARE IL MULTIMEDIA

4. LA VALUTAZIONE EURISTICA

4.1. INTRODUZIONE

La valutazione euristica è uno dei principali metodi di “Usability Discount” definiti da Jakob Nielsen per rendere maggiormente snelle e veloci le attività di verifica dell'usabilità. Lo scopo della valutazione euristica è quello di verificare se l'interfaccia del prodotto rispetta i principi fondamentali dell’usabilità (efficacia, efficienza, soddisfazione d'uso, facilità di apprendimento, e facilità di ricordo) e può essere effettuata non appena sono disponibili le prime bozze di interfaccia, anche di tipo cartaceo.

Si tratta di un metodo ispettivo che non prevede il coinvolgimento degli utenti finali del prodotto, ma si basa sul giudizio di più esperti di usabilità. Dal punto di vista pratico, la valutazione euristica consiste in una serie di navigazioni, effettuate separatamente da ciascun esperto sul prodotto software, durante le quali vengono valutati sia gli aspetti statici dell’interfaccia (layout delle finestre, etichette, pulsanti, etc.) che di comportamento (logica d’interazione, diagnostici, etc.) rispetto alle linee guida di riferimento.

Al termine delle singole sessioni, gli esperti discutono congiuntamente i risultati ai quali sono pervenuti al fine di sintetizzare i principali problemi di usabilità del prodotto valutato e concordare relativamente ad eventuali discrepanze del giudizio.
Nielsen raccomanda di effettuare la valutazione euristica impiegando non meno di tre esperti di usabilità, in riferimento ad un numero ottimale che va fa tre a cinque esperti. Da studi da lui effettuati, infatti, si rileva che un solo esperto di usabilità diagnostica circa il 35% dei problemi di usabilità, mentre 5 esperti diagnosticano circa il 75% dei problemi.

4.2. METODI EMPIRICI E METODI NON EMPIRICI

Esistono molteplici metodologie per la valutazione dell'usabilità, ciascuna caratterizzata da un proprio campo privilegiato di indagine, e per questo motivo maggiormente indicata in determinati contesti, in base ai propri vantaggi e svantaggi. Esse possono essere divise in due grandi gruppi: metodi empirici e metodi non empirici: per empirico si intende lo strumento di analisi che richieda la partecipazione di soggetti estranei al progetto di valutazione; parliamo di metodo non empirico, quando non c’è una partecipazione fondamentale degli utenti finali.

I metodi euristici di valutazione, sono metodi di facile e rapida applicabilità. Di solito è consigliabile usare i metodo euristici quando si hanno vincoli temporali stretti, nel corso di un progetto di sviluppo, e si può disporre dell’aiuto di un nucleo di esperti di usabilità.

Tra i metodi empirici si possono annoverare:

o Analisi di gruppo (workshop);

o Conversazioni private video registrate;

o Diari degli inconvenienti;

o Esperimenti controllati;

o Esplorazione a coppie;

o Focus groups;

o Interviste;

o Liste di controllo delle funzioni (feature checklist);

o Metodo della valutazione;

o Osservazioni sul campo;

o Questionari;

o Registrazioni di utilizzo;

o Verbalizzazione di pensieri ed azioni (thinking aloud).

I metodi non empirici consistono in:

 

4.3. CONFRONTO DI METODI ANALITICI

Fra i metodi analitici dell'usabilità dobbiamo citare soprattutto:

1. Cognitive walkthrough

2. Thinking aloud

3. Valutazioni euristiche

Sebbene siano sistemi differenti, entrambi utilizzano come abbiamo detto degli esperti che valutano il sito. E' importante sottolineare (e sottolineare al cliente) che questa analisi non viene condotta su basi soggettive, secondo il gusto dell'analista o basandosi su una generica esperienza arbitrariamente maturata. L'analisi viene condotta secondo principi che sono stabiliti su base empirica.

Nel caso del cognitive walkthrough si fa riferimento ad una lista delle azioni necessarie a svolgere determinati compiti, verificando sull'interfaccia/prototipo l'esistenza di eventuali problemi rispetto alle previsioni.

Thinking aloud (chiamata anche valutazione cooperativa) è una tecnica utilizzata inizialmente nel campo della ricerca psicologica che consiste nel far verbalizzare agli utenti quello che pensano durante l'esecuzione di una attività o compito.
Nell'applicazione del thinking aloud per la valutazione dell'usabilità, l'utente prova ad eseguire delle attività in interazione con il prodotto software e verbalizza tutto quello che pensa durante l'interazione. Seduto vicino all'utente, un osservatore registra (grazie al supporto di una videocamera o, semplicemente, con carta e matita) quello che l'utente dice e esegue sull'interfaccia, con particolare riferimento alle difficoltà che incontra. L'osservatore ha un ruolo passivo e non interviene durante la sessione di interazione.

La valutazione euristica invece valuta l'interfaccia sulla base di liste di euristiche. Tali euristiche sono principi che hanno un elevato valore predittivo perché rappresentano la sintesi dei problemi di usabilità più frequenti organizzati in categorie. Le euristiche di Nielsen, ad esempio, sono ottenute tramite analisi fattoriale su una base di 249 problemi riscontrati in studi di vario tipo.
I metodi analitici sono particolarmente utili in fasi precoci del progetto, quando i problemi di usabilità sono talmente numerosi che non avrebbe senso sprecare dei soggetti (che rappresentano un notevole costo) per rilevare errori che potrebbero essere facilmente identificati anche da uno o più esperti.

4.5. PRINCIPI EURISTICI PER UN SITO

I principi cui un sito deve rispondere per essere definito “usabile” quindi efficace e di successo sono sintetizzati nel seguente elenco:

4.6. MISURA E METRICHE

Il termine “metrica” viene adoperato in ingegneria dell’usabilità per indicare i dati oggettivi di misurazione, che vengono distinti a quelli soggettivi.
È bene osservare che quando si parla di dati soggettivi non si tratta di “opinioni”.
I metodi fin qui descritti servono appunto a distinguere tra opinioni e “fatti”.
Tuttavia, la possibilità di raccogliere anche dati oggettivi è un plus che avvalora e rafforza i risultati delle analisi basate sugli altri dati.

Tra i dati oggettivi conviene distinguere quelli ottenuti con il testing e le osservazioni, da quelli ricavati dai dati di log conservati nel server del sito, a partire dal momento in cui viene messo in rete (non è corretto raccogliere dati di traffico nel sito quando non hanno un vero valore d’uso per la gestione del sito, ad. esempio).

Dati oggettivi derivati da compiti strutturati: Se i compiti assegnati in un test hanno la caratteristica di essere riproducibili, e cioè ripetibili con più soggetti dal profilo simile (gruppi di circa 10 utenti), allora si riesce anche a dare valori numerici ad alcune prestazioni.

Essendo l’usabilità determinata da diverse caratteristiche, è ovvio che esistono diverse metriche di usabilità e, per ciascuna metrica, diverse misure. Riprendendo i vari aspetti che definiscono l'usabilità e partendo proprio da quelli definiti dalla norma ISO 9241-11 “Ergonomic requirements for office work with visual display terminals - Guidance on usability”, si possono individuare le metriche più comuni:

La scelta delle metriche e delle misure da raccogliere dipende, ovviamente, dagli obiettivi di usabilità da verificare e dall'impianto di verifica impostato. Assumendo, ad esempio, che si debbano raccogliere dati metrici sull'efficienza d'uso, si stabilisce che questa metrica è data dal tempo necessario agli utenti per eseguire una serie di compiti. Occorre quindi decidere in modo preciso cosa si intende per inizio e fine del compito, ovvero quando far partire e quando fermare il conteggio del tempo. In questo caso, è implicito che il metodo di raccolta dati è quello del test in laboratorio. Ad esempio, MEHEM utilizza un insieme di metriche proprie MECEM (Metrics for the Communications Evaluation in Multimedia).

4.6.1. VALUTAZIONE QUALITATIVA VS. ANALISI QUANTITATIVA

Quando è il caso di procedere ad una valutazione qualitativa e quando, invece, è più opportuno misurare l'usabilità?
La raccolta e l'analisi metriche ha dei costi superiori (richiede un numero maggiore di utenti e più tempo per la fase di analisi dei risultati con una metodologia “pro” Nielsen), ma è anche vero che spesso i numeri parlano meglio delle parole.
Nella decisione tra l'uno e l'altro approccio si può adottare il seguente criterio:

a. occorre tracciare l'evoluzione del livello di usabilità del prodotto,

b. occorre confrontare il livello di usabilità del prodotto rispetto ad altri prodotti simili,

c. occorre fornire dati incontrovertibili per agevolare la scelta tra diverse soluzioni di progettazione,

allora è importante anche la rilevazione metrica.

Quello che va comunque sfatato è il mito del “numero magico”: non esiste un numero unico in grado di illustrare in modo compiuto la complessità dell'usabilità. Basta pensare al rapporto tra l'efficacia e l'efficienza:

Un prodotto può essere realizzato in modo da consentire l'esecuzione corretta e completa di una attività, perché, ad esempio, utilizza Wizard che guidano nella esecuzione del compito e quindi riducono le possibilità di errore. Ma se nella suddivisione dei contenuti dentro le singole pagine o finestre non si tiene conto dell'unità di lavoro, si rischia di spezzettare l'attività in tanti passi operativi, ovvero si costringe l'utente a navigare attraverso un numero eccessivo di finestre o pagine. Questo compromette ovviamente l'efficienza dell'utente, oltre che il suo buon umore (e chissà perché mi vengono in mente le tante pagine attraverso le quali occorre passare quando si vuole fare una registrazione on-line a uno dei tanti servizi gratuiti di posta elettronica e di accesso ad Internet).

4.6.2 LABORATORI PER LA VALUTAZIONE EURISTICA NEL MONDO...

Per vedere come sono fatti i laboratori di usabilità, fai un tour virtuale presso i laboratori della Microsoft, della Sun, della IBM, della Siemens e, in Italia, di Telecomitalialab (http://163.162.17.244/servicelab/frame.htm).

La valutazione euristica è utile per migliorare la fruizione di un sistema ipermediale on-line e off-line. Non esiste attualmente un sistema ipermediale esento della valutazione euristica.
La valutazione euristica è capace di trovare il maggior numero di errori su il design di un sistema ipermediale.
MEHEM è un metodo di valutazione economica e veloce per verificare l’usabilità del sistema.
Per sapere di più:

www.useit.com/alertbox

www.usability.org

www.usableweb.org

www.usabile.it

www.ucc.ie/hfrg/questionnaires/sumi

www.stcsig.org/usability

www.cs.umd.edu/hcil

Concludendo, tutti questi attributi di qualità per l’editoria multimediale sono stati sviluppati alla fine del secolo scorso da 2 gruppi di studio universitari in Europa, per 2 metodologie di valutazione di sistemi interattivi: SUE e MEHEM. La prima richiede il laboratorio, mentre la seconda no. Perciò, MEHEM è più economica da applicare. MEHEM rappresenta l’intersezione della comunicazione con l’informatica.

In questo contesto bisogna inserire gli attributi di qualità per i sistemi multimediali, in cui la componente comunicativa nel secolo XXI prevale sul resto degli elementi di un sistema ipermediale.

<< Home Page >>

F.co Cipolla Ficarra, PhD - HCI Lab :: © Copyright :: Bergamo, Italy (2001) & Barcelona, Spain (1997)

*** tutto questo contenuto continua ad essere copiato e incollato dal 2001 fino oggi da parte di Markus Lazzarone detto Cremona Copy & Paste - guardate il libro ***