Museo dell'Informatica - Bologna - mistic.web.cs.unibo.it
Novembre 18 2017 20:07:45
Il glossario dei termini informatici

Glossario


La maggior parte di questo glossario è stato redatto in collaborazione con il dott. Antonio Teolis per la "Enciclopedia dell'ECONOMIA" edita da DeAgostini.Per una più completa comprensione di queste definizioni, specialmente in relazione alle applicazioni economiche, si rimanda a questo testo.

A B C D E F G H I J K L M N O P Q R S T U V W X Y Z


A

Algoritmo. E’ la descrizione del procedimento, per ottenere la soluzione di una classe di problemi, che ha le seguenti proprietà: i) deve essere esplicita e non ambigua per l’interlocutore cui è destinata, ii) il procedimento attivato di volta in volta seguendo il testo della descrizione deve terminare in un tempo finito. Un a. presuppone quindi sempre la presenza di un linguaggio usato per la descrizione e un interlocutore che conosce quel linguaggio e sa eseguire tutte le azioni previste. In questo contesto, un procedimento è una attività che si articola in passi successivi ciascuno dei quali si svolge in un tempo finito. La parola a. deriva dal nome del matematico arabo al Khuwarizmi vissuto nel secolo IX. Fino all’avvento del computer, gli algoritmi venivano usati essenzialmente solo in matematica, nel qual caso il linguaggio era il gergo matematico e l’interlocutore era una persona che lo capisse per svolgere le operazioni descritte, cioè per eseguire i passi del procedimento. Ben noto è l’algoritmo euclideo per calcolare il M.C.D. di due numeri interi (positivi). Attualmente, l’interlocutore privilegiato è il computer: in questo caso i linguaggi usati per la descrizione del procedimento si dicono linguaggi di programmazione (vedi) e l’a. assume la forma di un programma (vedi).


anno 2000. Fenomeno di grande impatto economico che riguarda la maggior parte delle applicazioni gestionali e finanziarie realizzate prima dell’ultimo lustro del secondo millennio. Questo fenomeno è generato da due cause: la prima è che, nelle date, l’anno veniva rappresentato (in memoria o nell’interfaccia di scambio dei dati) solo con le ultime due cifre; la seconda è che negli algoritmi di gestione delle date veniva usata l’ipotesi (spesso) nascosta che tutte appartenessero allo stesso secolo. A partire dal primo gennaio dell’anno 2000, tutti i programmi che mantengono questi presupposti funzionano in maniera scorretta.


*archivio. Contenitore di informazioni usualmente strutturate in documenti e organizzato in modo da rendere possibile (e facile) il loro reperimento mediante l’utilizzo di una chiave di accesso (vedi). Esistono a. gestiti direttamente da persone
e archivi gestiti da computer. In quest’ultimo caso, le informazioni sono registrate in forma digitale (vedi), il documento prende (spesso) il nome di file (vedi) e l’archivio quello di data base (vedi).


ASCII. Acronimo di American Standard Code for Information Interchange. E’ una particolare codifica che consente, nei computer, di rappresentare con stringhe di bit (vedi) i caratteri usati per comporre documenti (lettere dell’alfabeto, cifre, segni di interpunzione, ...).


assembler. Nome generico di linguaggi di programmazione (vedi) “di basso livello” che consentono di descrivere, una per una, tutte le operazioni elementari che un computer sa eseguire. Esiste un assembler per ogni tipo di computer.


*automa. Nel linguaggio corrente è una macchina che imita il comportamento di un essere vivente (in particolare dell’uomo). In Informatica indica un meccanismo ideale introdotto per formalizzare i processi di elaborazione dell’informazione rappresentata in forma digitale (vedi). Le applicazioni pratiche degli a. sono sviluppate nell’ambito della robotica (vedi) e della Intelligenza Artificiale (vedi).


B


banca di dati. Collezione di grandi quantità di dati, inerenti a uno stesso argomento, accessibili tramite computer. Viene di norma realizzata come insieme di file (vedi) e/o di data base (vedi).


base di dati. Vedi la dizione inglese data base.


Basic. Linguaggio di programmazione procedurale ideato negli anni sessanta per rendere facile l’insegnamento e l’apprendimento della programmazione. Ha conosciuto una notevole diffusione in concomitanza con la comparsa sul mercato dei primi personal computer a causa del modesto uso di risorse richiesto. Ora il B. si è evoluto consentendo anche una facile realizzazione di interfacce grafiche interattive.


Baud. Unità di misura della velocità di trasmissione dei dati usata principalmente in telegrafia e pari a un punto telegrafico al secondo; attualmente è sinonimo di bps (vedi).


bit. E’ l’unità di informazione corrispondente alla scelta tra due alternative o tra due oggetti che, simbolicamente, vengono rappresentati con le cifre 0 e 1; il b., per metonimia, indica anche ciascuna delle due cifre. L’insieme di queste due cifre è detto alfabeto binario che è impiegato per rappresentare le informazioni direttamente usabili da un computer. La trasformazione dell’informazione, dalla forma direttamente fruibile da una persona a quella utilizzabile dal computer, si chiama codifica (vedi). Le parole costruite e usate nei computer con questo alfabeto hanno lunghezza di uno, otto o multipli di otto bit. Ciascuno dei caratteri che compare in un testo scritto (lettere, cifre, segni di interpunzione, ...) viene rappresentato con una parola, o stringa, di otto bit, detta byte (vedi).


*borsellino elettronico. E’ una carta con microchip

(vedi), usata in applicazioni di monetica (vedi), che contiene del denaro “prepagato”. Il b. può essere utilizzato in transazioni off-line (vedi) e quindi di costo trascurabile; differisce dalle vecchie carte prepagate perché è ricaricabile; tipicamente serve per i pagamenti di piccolo importo.


bpi. Acronimo di bit per inch; indica la densità di registrazione lineare su supporto magnetico.


*bps. Acronimo di bit per second; indica l’unità di misura di flusso in un canale di comunicazione. Sono di uso comune i multipli Kbps (1000 bps) e Mbps (1000 Kbps

). Il bps e i suoi multipli vengono comunemente usati per indicare la velocità di trasmissione dati di un

(vedi) o di una linea telefonica.


browser. Nome generico di applicazioni che permettono di “navigare in rete”, cioè di rintracciare informazioni in una rete di calcolatori. Tipicamente, i b. sono programmi che vengono usati su (personal) computer collegati, mediante una rete (Internet, Intranet), a uno o più server Web (vedi). I b. hanno la proprietà di trasformare ogni computer collegato in rete in un client (vedi) universale per le applicazioni World Wide Web (vedi WWW).


buffer. In informatica, è una componente hardware o software (una struttura dati) in cui transitano le informazioni che devono essere scambiate tra due processi (vedi) che evolvono a diversa velocità. Per migliorare l’efficienza dello scambio, può essere necessario aumentare la dimensione o il numero dei buffer disponibili.


bug. Termine inglese col quale si indica un errore contenuto in un programma. Per estensione indica anche un qualunque malfunzionamento o comportamento anomalo di una applicazione informatica.


burotica. Indica l’insieme dei concetti, dei metodi e delle applicazioni che l’informatica mette a disposizione per risolvere i problemi connessi al lavoro d’ufficio. La b. ha fatto nascere strumenti di produttività individuale come i word processor, fogli elettronici e piccoli sistemi di archiviazione di documenti; attualmente la b. si occupa dello sviluppo di strumenti di produttività di gruppo.


bus. In informatica, è una componente hardware che serve a far comunicare più dispositivi che hanno differenti velocità di funzionamento. In un computer (vedi) la CPU, la memoria e gli altri dispositivi sono usualmente connessi a un bus.


byte. In informatica è una parola, o stringa, di otto bit utilizzata per rappresentare ciascuno dei caratteri che compaiono in un testo scritto componibile con un tastiera. Esistono 28, cioè 256, stringhe diverse di otto bit con le quali è possibile codificare fino a 256 caratteri diversi. Il b. è anche l’unità di misura per la memoria; viene usata nei multipli Kbyte (1024 byte), Mbyte (1024 Kbyte) e Gbyte (1024 Mbyte). Talvolta, per brevità, questi multipli vengono indicati rispettivamente con KB, MB e GB.


C


C. Linguaggio di programmazione procedurale particolarmente adatto per applicazioni specialistiche nel campo dei sistemi operativi, delle reti e, più in generale, nella implementazione di algoritmi che richiedono una alta efficienza in fase di esecuzione.


*C++. Linguaggio di programmazione emerso dalla evoluzione del C (vedi) verso la programmazione ad oggetti (vedi


cache (memory). In informatica è una memoria ad accesso estremamente rapido usualmente localizzata nella CPU (vedi) e usata per contenere le istruzioni e i dati di utilizzo immediato; si misura in Kbyte. A parità di altre caratteristiche, maggiore è la c. migliore è l’efficienza della CPU.


CAD. < riportare la definizione data nella Compact De Agostini>


*CAL. Acronimo per Computer Aided Learning. Con questa sigla si intendono le applicazioni dell’Informatica volte a facilitare l’apprendimento nelle attività scolastiche. Fa riferimento al costruttivismo (nella teoria dell’apprendimento) e utilizza tecniche

(vedi).


calcolatore centrale. Vedi mainframe.


calcolatore elettronico. Vedi computer.


CAM. .


*carta con microchip. Supporto di plastica in cui è inserito un microchip (vedi) che costituisce un piccolo computer con una memoria che, attualmente, può arrivare fino a 64 Kbyte. Viene usata per applicazioni più sofisticate di quelle realizzabili con carta magnetica (vedi) come per esempio: gestire la chiave privata (vedi chiave pubblica) nelle applicazioni che devono garantire la sicurezza nello scambio di messaggi, gestire il borsellino elettronico (vedi) e altre applicazioni nelle quali è richiesto il controllo dell’identità personale.


carta magnetica. Supporto di plastica dotato di una striscia di materiale magnetico su cui è possibile registrare su tre righe, comunemente dette piste, da qualche decina a qualche centinaia di byte (a seconda degli standard). Vengono utilizzate tipicamente come strumento di identificazione in varie applicazioni o come mezzo di pagamento nelle applicazioni di monetica (vedi).


*cartella. In informatica è un insieme di documenti o di altre cartelle; nei sistemi operativi (vedi) con interfaccia grafica, è anche l’icona associata. Una c. può essere spostata, copiata e distrutta come un tutto unico (vedi anche directory).


CD. Acronimo per Compact Disk. In informatica è un disco di plastica utilizzato come supporto per contenere informazioni, registrate una volta per tutte dal produttore, e leggibili con una tecnologia ottica (laser). I CD hanno una capacità dell’ordine del Gbyte e sono particolarmente utilizzati nelle applicazioni multimediali. In alternativa a CD, spesso si usa anche la dizione CD-ROM (da Read Only Memory) per sottolineare che l’utente può solo compiere azioni di lettura.


certificazione, autorità di. Organismo che garantisce la comunicazione sicura ad una comunità di utenti che usano una rete aperta per trasmettersi dei messaggi. La sicurezza viene garantita mediante chiavi pubbliche (vedi): compito della autorità è la identificazione di ogni utente e il mantenimento di una lista aggiornata di certificati che contengono le chiavi pubbliche.


chiave di accesso E’ lo strumento usato per rintracciare informazioni in un archivio di dati strutturati; il metodo usato consiste nell’indicare la c., cioè il valore di una parte delle informazioni che si stanno cercando. Quando si consulta una enciclopedia o un dizionario, la c. è rappresentata dalla parola di cui si cerca la definizione. Quando si fanno ricerche in un archivio o in un data base, si specifica la c. sotto forma di una stringa di caratteri: vengono così rintracciati tutti i documenti o tutti i record (vedi) che contengono quella stringa.


*chiave pubblica. E’ lo strumento usato nelle applicazioni che richiedono che più utenti possano comunicare tra loro in maniera sicura utilizzando le tecniche della crittografia (vedi). La chiave è una stringa di bit ed è tanto più sicura quanto maggiore è il numero di cifre binarie usate. Nelle applicazioni tipiche, ad ogni utente interessato a partecipare a un sistema di comunicazione sicura, vengono assegnate da una autorità di certificazione (vedi) due chiavi: una pubblica, nota a tutti i partecipanti, e una privata, nota solo a lui. In linea di principio, quando l’utente A vuole comunicare con l’utente B codifica il messaggio con la sua chiave privata e con quella pubblica di B. La codifica è tale che B riesce a leggere il messaggio usando la chiave pubblica di A e la propria chiave privata. In questo modo, ciascun utente di una comunità può comunicare in maniera sicura con tutti gli altri mantenendo segreta solo la propria chiave privata. Con questa tecnica, viene realizzata la firma elettronica (vedi).


chip. In informatica indica il supporto di silicio sul quale viene realizzato in più strati un circuito elettronico integrato costituito da unità logiche (tipicamente transistor) e connessioni. L’evoluzione tecnologica consente di rendere sempre più stretta la larghezza delle connessioni e quindi sempre più alto il numero di transistor per unità di superficie. I c. vengono classificati in base al numero di transistor presenti per unità di superficie; nella evoluzione tecnologica dei c. comunemente si individuano la fase LSI (Large Scale Integration) e VLSI (Very Large Scale Integration) caratterizzate da densità dell’ordine di 103 e 105 transistor per cm2. In un computer, l’unità centrale e le memorie sono realizzate mediante c. La produzione di nuovi c. richiede grandi investimenti per la ricerca ed è appannaggio di un numero molto ristretto di produttori mondiali.


*cibernetica. . (Vedi anche Intelligenza Artificiale).


cifratura. Vedi crittografia.


CIM. Acronimo per Computer Integrated Manufactoring: indica le tecniche di produzione che si avvalgono delle applicazioni informatiche per integrare le varie componenti di un sistema produttivo (vedi automazione).


circuito integrato. Vedi chip.


client/server. E’ un tipo di applicazioni informatiche nelle quali l’elaborazione è realizzata su (almeno) due computer diversi: il client e il server. In generale, il client è il computer dell’utente e ad esso è demandato il compito di gestire l’interfaccia dell’applicazione e di eseguire semplici elaborazioni. Il server, connesso in rete anche a più client, ha il compito di sostenere l’elaborazione vera e propria e di gestire l’accesso al data base. Le applicazioni client/server si distinguono per avere interfacce grafiche molto amichevoli, cioè usabili facilmente anche da utenti inesperti. Esistono anche applicazioni c./s. a tre livelli; in questi casi il server, collegato ai client, è connesso anche a un altro server, per esempio un mainframe, che usualmente ha il compito di gestire un (grande) data base.


COBOL. Acronimo da COmmon Business Oriented Language. Linguaggio di programmazione procedurale diffuso a partire dagli anni sessanta per la realizzazione di applicazioni gestionali. Ha conosciuto sùbito una notevole diffusione ed è tuttora molto usato specialmente nelle applicazioni di notevoli dimensioni in grandi aziende come banche ed enti pubblici.


codice a barre. Tecnica per codificare lettere e cifre con barre verticali di diverso spessore; il c. a b. viene letto velocemente con dispositivi laser ed è molto impiegato nei registratori di cassa per la vendita di prodotti di largo consumo.


codifica(1). E’ la traduzione di informazioni tra due rappresentazioni simboliche. La c. viene realizzata mediante una corrispondenza (biunivoca) tra due insiemi finiti di simboli. In informatica la c. viene usata per tradurre le informazioni dalla forma leggibile da un utente a quella utilizzabile da un computer; poiché nei dispositivi interni di memoria è possibile usare solo cifre binarie, uno dei due insiemi di simboli è sempre costituito da stringhe che, di norma, sono lunghe otto bit, cioè un byte, o multipli di otto. L’altro insieme è costituito da un alfabeto o font (vedi) con il quale vengono composti i documenti per gli utenti esterni.


codifica(2). Sinonimo di crittografia (vedi).


compilatore. In informatica è una componente software che consente di tradurre un programma scritto in un linguaggio di programmazione (per esempio Basic o Prolog) in una forma direttamente eseguibile da parte di un certo computer. Questa fase di traduzione rende l’esecuzione del programma più efficiente rispetto a quella realizzata mediante interprete (vedi) e consente, inoltre, di conservare la forma eseguibile per esecuzioni successive.


*computer. Dispositivo elettronico capace di elaborare informazioni secondo programmi memorizzati. Gli elementi fondamentali di un computer sono: la memoria centrale (o RAM, da Random Access Memory), la CPU (da Central Processing Unit) e le unità periferiche che talvolta possono non essere integrate nel medesimo dispositivo fisico che costituisce il c. La RAM serve per memorizzare informazioni codificate come stringhe di cifre binarie; queste informazioni possono essere schematicamente suddivisi in due insiemi: dati e programmi. La CPU è l’unità che esegue le elaborazione sui dati descritte in un programma: al momento dell’elaborazione, dati e programma devono risiedere nella RAM. Le unità periferiche sono dispositivi elettronici e meccanici che gestiscono informazioni (dati e programmi) e consentono di scambiarle con la memoria centrale: si dicono di input, di output e di input/output (o di I/O) rispettivamente se il flusso di informazioni è diretto solo verso la memoria, solo verso l’unità periferica o in entrambi i sensi. Le principali unità periferiche di un c. sono: la tastiera e il mouse (di input), il video e la stampante (di output) e lo hard disk, il floppy disk e il modem (di input output). (Per una descrizione dettagliata si vedano le singole voci). Nei c. attuali, RAM e CPU comunicano perché sono direttamente connesse a un bus (vedi). Le unità periferiche sono normalmente collegate al bus tramite opportune schede di connessione. I parametri principali che caratterizzano un c. sono: il clock, che determina la velocità con la quale vengono eseguite le operazioni elementari e si misura in Mhz (o megahertz); la dimensione della RAM, che influenza l’efficienza globale del sistema e si misura in Mbyte. Importanti sono anche la diagonale e la risoluzione dello schermo del video (la prima si misura in pollici e la seconda in pixel, vedi) e la dimensione dell’hard disk (si misura in Gbyte). Per il modem, essenziale per l’accesso alla rete tramite una linea telefonica, il parametro significativo è la velocità di trasmissione misurata in bps. Per altri aspetti ed argomenti collegati, si veda informatica.


convertitore analogico digitale. Dispositivo che serve per trasformare informazioni che variano in modo continuo in dati discreti elaborabili da un computer. Esempi di impiego di c. si hanno nei sensori e negli attuatori collegati a un sistema di elaborazione. I primi consentono di acquisire delle misure di temperatura, umidità, luminosità e rumore con un intervallo di tempo prestabilito detto periodo di campionamento; i secondi consentono di svolgere azioni fisiche come aprire una porta o azionare una valvola.


CPU. Acronimo per Central Processing Unit. E’, assieme con la memoria centrale, la componente essenziale di un computer (vedi) ed è caratterizzata dall’insieme di istruzioni elementari che può eseguire e dalla velocità con cui le esegue. Questo insieme costituisce il così detto linguaggio macchina. Ciascuna istruzione descrive una operazione elementare e individua i dati su cui operare specificandone, per esempio, l’indirizzo (vedi memoria). L’insieme di istruzioni che una CPU può eseguire può essere più o meno numeroso; corrispondentemente le CPU vengono classificate in CISC e RISC (vedi).


*crittografia. Tecnica che consiste nel codificare un messaggio in modo da non renderlo direttamente comprensibile. A differenza della codifica (vedi), la c. non consiste nella trasformazione dei singoli caratteri del testo, ma nella trasformazione globale di ciascuna delle parti in cui è stato suddiviso l’intero messaggio. Gli algoritmi di c. utilizzano una parola chiave (una stringa di bit, cioè un numero intero) e interpretano il messaggio da crittografare (codificato come una lunga stringa di bit) come un (grande) numero intero: ogni algoritmo di c. è una combinazione di funzioni matematiche che utilizzano questi due numeri per trasformare il messaggio iniziale in un terzo numero che costituisce il messaggio crittografato. Esistono algoritmi di c. simmetrici e asimmetrici distinti dalla maniera per ricostruire il messaggio originale; nei primi si deve usare la stessa parola chiave utilizzata per crittografare, mentre nei secondi si usa una parola chiave diversa.


D


data bank. Vedi banca di dati.


data base. E’ un insieme di tecniche per costruire, immagazzinare e reperire strutture di dati; spesso, per sineddoche, indica anche l’insieme strutturato dei dati conservati. Con riferimento alle tecniche usate, i tipi di d. b. sono: gerarchici, relazionali e ad oggetti. I d. b. gerarchici sono stati i primi ad essere usati negli anni ‘70 e ‘80 e sono ancora usati (nelle grandi organizzazioni) per le ovvie difficoltà economiche e tecniche insite nel cambiare la grande quantità di applicazioni che li usano. I d. b. relazionali, disponibili sul mercato dalla fine degli anni ‘80, vengono oggi usati in quasi tutte le nuove applicazioni (e nella riscrittura delle vecchie) per la loro maggiore flessibilità ed efficienza. Queste caratteristiche dipendono dalla semplicità dell’unica struttura elementare usata nella realizzazione di questo tipo di d. b.: la tabella (vedi). La diffusione dei data base relazionali è dipesa dal fatto che per questi sistemi è stato possibile fissare uno standard per l’utilizzo delle informazioni in essi contenute: il linguaggio SQL (vedi). Di introduzione più recente sono i d. b. ad oggetti che vengono proposti per rappresentare non solo la descrizione degli oggetti del mondo reale, ma anche il loro comportamento. L’evoluzione tecnologica fa intravedere anche la diffusione dei così detti universal d. b. che sono particolarmente adatti per gestire informazioni multimediali (dati, testi, suoni, immagini, disegni e animazioni). Per rintracciare le informazioni contenute in un d. b. si usano le chiavi di accesso (vedi).


data file. Archivio di dati (vedi file).


data mining. Insieme di tecniche e programmi per scoprire in modo semi automatico eventuali relazioni tra dati contenuti in archivi gestiti anche con diverse modalità (vedi anche data warehouse).


*data processing. Vedi EDP.


data set. Altro nome per file (vedi).


data warehouse. Insieme di tecniche e programmi per usare contemporaneamente più data base in modo estemporaneo, cioè per rintracciare dati, senza conoscerne preventivamente la localizzazione, correlarli e presentarli all’utente finale. Il d. w. è lo strumento della direzione aziendale per individuare e utilizzare le informazioni sparse nei diversi sottosistemi informativi gestionali.


dato. In informatica si dice dato una informazione rappresentata in forma digitale (vedi); un d. può quindi essere gestito, elaborato e trasmesso da un computer.


DBMS. Acronimo per Data Base Management System. Indica l’insieme dei programmi usati per la gestione di un data base.


debug. Processo mediante il quale si cercano e si correggono errori e comportamenti anomali delle applicazioni informatiche. Deriva dall’inglese bug (vedi).


default. In inglese significa mancanza: in informatica viene utilizzato in espressioni del tipo “valore di default” in relazione al valore che deve assumere un parametro in mancanza di una indicazione esplicita.


desktop. In informatica, è l’appellativo delle apparecchiature (personal computer, stampanti e altre periferiche) quando hanno dimensioni adatte a essere poste su una scrivania. Una delle locuzioni più diffuse è “desktop publishing”, cioè la così detta editoria da tavolo, che consiste nel disporre di un personal computer con un wordprocessor (vedi) e di una stampante per la produzione di documenti di alta qualità editoriale.


digit. Nome inglese per cifra. Deriva dal latino digitus (dito) tramite l’idea del contare con le dita. In informatica sono usate, come digit, le due cifre binarie (0, 1), le dieci cifre decimali (0, 1, ..., 9) e le sedici cifre esadecimali (0, 1, ..., 9, A, B, C, D, E, F) rispettivamente per i sistemi di numerazione in base due, dieci e sedici.


digitale. Aggettivo usato in informatica (vedi) e nelle applicazioni di telecomunicazioni (per esempio telefono e televisione) per fare riferimento alla rappresentazione discreta, cioè mediante simboli come i numeri interi o digit, delle informazioni; d. è usato in maniera intercambiabile con numerico in contrapposizione ad analogico che si riferisce invece ad una rappresentazione continua delle informazioni, come avviene per esempio mediante onde sonore o elettromagnetiche.


directory. In informatica è il termine che indica una porzione di memoria su disco, dotata di nome, che può contenere uno o più file o altre (sotto)directory (vedi anche cartella).


disco magnetico. Apparecchiatura periferica di I/O per la memorizzazione di dati (vedi computer).

Organizzazione fisica. Il d. m. è costituito da uno o più dischi rigidi sovrapposti che ruotano attorno al medesimo asse. Sulle due facce di ogni disco è distribuita una pellicola contenente materiale magnetizzabile. In senso radiale può scorrere un sistema di bracci all’estremità dei quali è posta una testina di lettura e scrittura per ogni faccia del disco. Il sistema dei bracci può assumere un numero discreto di posizioni dalla più esterna (con le testine vicine al bordo dei dischi) alla più interna (con le testine vicine all’asse di rotazione). Si dice traccia la parte del disco che scorre durante la rotazione di fronte a una testina quando rimane ferma. Su ogni faccia del disco ci sono tante tracce quante sono le posizioni discrete che il sistema dei bracci può assumere. Una traccia può essere divisa in settori. La più piccola quantità di dati scambiata tra memoria centrale (RAM) e disco magnetico è il record (fisico). Per accedere a un record occorre posizionare il sistema dei bracci sulla traccia (o sul settore) che lo contiene e aspettare che, a causa della rotazione del disco, passi di fronte alla testina di lettura/scrittura; per la necessità di questi movimenti (dei bracci e del disco) nel caso dei dischi magnetici si può parlare solo di tempi medi di accesso che, nei dispositivi attuali, si misurano in millisecondi. La capacità di memorizzazione dei dischi si misura in Gbyte.
Organizzazione logica. Un disco serve per memorizzare dei file che, per facilità di gestione, sono organizzati in “cartelle” o directory. Un disco, per essere usato, deve essere inizializzato: questa operazione, detta anche formattazione, rende disponibile l’intera capacità del disco, cancellando i dati in esso eventualmente preesistenti. Dopo la formattazione, si possono creare le nuove cartelle che conterranno i documenti, cioè i file.


disco ottico. Vedi CD.


DOS. Acronimo per Disk Operating System. Indica un generico sistema operativo (vedi) memorizzato su disco; è anche il nome proprio del sistema operativo per personal computer che ne ha favorito la grande diffusione negli anni ottanta.


drive. In informatica è la componente hardware che serve per collegare una apparecchiatura periferica a un computer; esiste un d. per ogni tipo e tecnologia caratteristici dei dispositivi da collegare.


driver. In informatica è la componente software del sistema operativo che serve per gestire lo scambio di informazioni tra una apparecchiatura periferica (per esempio una stampante) e la memoria centrale (vedi computer). Esiste un d. per ogni tipo, tecnologia e marca del dispositivo da collegare.


duemila, anno. Vedi anno 2000.


DVD. Acronimo per Digital Versatile Disc. Rappresenta l’evoluzione tecnologica del CD (vedi) e può contenere una quantità di informazioni dell’ordine della decina di Gbyte.
Tempo rendering: 0.01 secondi! 436,536 visite uniche