Modulo 1- Lezione 1 di 4
Concetti di Base della teoria dell’Informazione
Fondamenti
La Tecnologia dell’Informazione
Tipi di Computer
Componenti principali del PC
Si dice algoritmo una sequenza di istruzioni
che può essere impiegata in un’attività di
elaborazione dei dati.
Un algoritmo è costituito da una serie di passi,
ognuno dei quali è semplice e porta alla
risoluzione del problema.
In un algoritmo è possibile definire dei cicli,
che ripetono più volte i passi, e delle
condizioni: in pratica alcuni passi possono
essere eseguiti solo sotto determinate
ipotesi.
Esempio: scrivere un algoritmo che individua il
maggiore di una serie.
L’algoritmo accetta in ingresso una serie di
numeri (input), e produce in uscita un
risultato (output).
Per rappresentare gli algoritmi utilizziamo la
rappresentazione a pseudocodice, la quale
descrive in linguaggio naturale le operazioni
che descrivono l’algoritmo.
Algoritmo NumeroMaggiore
Input: elenco non vuoto di numeri (E)
Output: il maggiore dei numeri in E
maggiore  E1
Per ogni numero in E fai
Se numero > maggiore, allora
maggiore  numero
Restituisci maggiore
maggiore = E1
Leggi numero
successivo
numero
>
maggiore
Si
maggiore = numero
Si
Ci sono
altri
numeri?
No
output maggiore
No
Nel sistema di numerazione decimale vengono
usate 10 cifre.
All’interno di un calcolatore le cifre vengono
memorizzate in un circuito elettronico che
può assumere solo 2 stati: assenza o
presenza di corrente, o in altre parole “0” e
“1”.
Questo sistema di rappresentazione è detto
sistema binario, poiché si basa su due sole
cifre.
Il sistema di numerazione decimale e binario
possono essere “collegati”, vediamo un
esempio.
Sistema decimale
Sistema binario
0
0
1
1
2
10 = 1*21 + 0*20
3
11 = 1*21 + 0*20
4
100 = 1*22 + 0*21 + 0*20
…
…
Per convertire un numero binario in un numero
decimale basta sommare le varie potenze di
due corrispondenti alla cifra binaria.
10011010010=
1 x 210 + 0 x 29 + 0 x 28 + 1 x 27 + 1 x 26 + 0 x
2 5 + 1 x 24 + 0 x 2 3 + 0 x 22 + 1 x 21 + 0 x 20 =
1 x 1024 + 0 x 512 + 0 x 256 + 1 x 128 + 1 x 64
+ 0 x 32 + 1 x 16 + 0 x 8 + 0 x 4 + 1 x 2 + 0 x
1 = 1234
Per convertire un numero da decimale a binario basta
dividere esaustivamente il numero decimale e utilizzare i
resti, scritti al contrario. Ad esempio, usando 1234
1234 : 2 = 617
resto: 0
617 : 2 = 308
resto: 1
308 : 2 = 154
resto: 0
154 : 2 = 77
resto: 0
77 : 2 = 38
resto: 1
38 : 2 = 19
resto: 0
19 : 2 = 9
resto: 1
9:2=4
resto: 1
4:2=2
resto: 0
2:2=1
resto: 0
Quoziente = 1 
Numero: 10011010010
Il computer per rappresentare i caratteri usa la
codifica ASCII (American Standard Code for
Information Interchange). Questa codifica
associa a ogni carattere un numero (da 0 a
255). Questo significa che il computer
utilizza 8 bit (1 byte) per rappresentare ogni
carattere.
Nella codifica ASCII possiamo trovare simboli
speciali, numeri, segni di punteggiatura,
lettere accentate.
Un’immagine all’interno di un computer viene
memorizzata tramite la modalità bitmap
(mappa di caratteri).
Questa modalità scompone l’immagine nei
singoli punti che la compongono, detti pixel.
Ad ogni pixel viene associato un colore, il
quale è suddiviso in 3 componenti: R (Red), G
(Green) e B (Blue).
A ognuno di questi componenti viene attribuito
un valore da 0 a 256, chiamato spazio.
Unendo i 3 livelli possiamo ottenere fino a 26
milioni di sfumature differenti.
Quindi ogni immagine bitmap è costituita da
triplette di byte RGB. Visto che ogni
componente viene definito da 1 byte (8 bit),
ogni pixel è costituito da 24 bit, ed è questo
il motivo per cui questa modalità di
rappresentazione delle immagini è chiamata
Bitmap a 24 bit.
Tuttavia esistono delle ottimizzazioni che
consentono di ridurre l’utilizzo di spazio di
memoria da parte dell’immagine.


Compressione senza perdita di informazioni.
Un tipico esempio è il formato TIFF (Tagged
Image File Format), il quale elimina tutte le
ridondanze nei bit delle immagini.
Compressione con perdita di informazioni.
Un tipico esempio è il formato JPEG (Joint
Photographic Experts Group): in questo caso
vengono tolte dall’immagine tutti quei
dettagli che possono essere trascurati,
poiché l’occhio umano non riesce a catturarli
perfettamente. E’ il formato utilizzato
maggiormente dalle fotocamere digitali.
Come già detto, il computer è in grado di
comprendere solo gli stati binari “0” e “1”.
Così come per i numeri decimali, possiamo
eseguire delle operazioni tra bit, tramite
appositi operatori.
I tre principali operatori logici sono AND, OR e
NOT e ogni attività sul computer si basa su di
essi.
L’operatore NOT è il più semplice e opera solo
su un bit.
Il suo compito è quello di invertire il valore del
bit, trasformandolo da 0 a 1 e viceversa.
Cioè:
NOT 0 = 1
e
NOT 1= 0
L’operatore AND accetta due bit e restituisce
come risultato 1 se e solo se entrambi i valori
che gli abbiamo sottoposto sono uguali a 1.
0
0
1
1
AND
AND
AND
AND
0
1
0
1
=
=
=
=
0
0
0
1
AND
0
1
0
1
0
0
0
1
L’operatore OR accetta due bit e restituisce
come risultato 1 almeno uno dei valori che
gli abbiamo sottoposto è uguale a 1.
0
0
1
1
OR 0
OR 1
OR 0
OR 1
=
=
=
=
0
1
1
1
OR
0
1
0
1
0
1
1
1
Un linguaggio di programmazione è un linguaggio formale
dotato di una sintassi ben definita per scrivere programmi per
calcolatori, in una forma più vicina al linguaggio umano
scritto: l'alternativa sarebbe scrivere direttamente le
istruzioni nel codice macchina del particolare processore, un
compito improponibile per programmi meno che
semplicissimi.
In matematica, logica, informatica e linguistica, linguaggio
formale si intende un insieme di stringhe di lunghezza finita
costruite sopra un alfabeto finito, cioè sopra un insieme finito
di oggetti tendenzialmente semplici che vengono chiamati
caratteri, simboli o lettere.
Ogni linguaggio di programmazione possiede:

una sintassi, cioè l'insieme delle regole che una porzione di
codice deve seguire per essere considerata conforme a quel
linguaggio

una semantica, cioè l'insieme delle regole di associazione tra
costrutti del linguaggio sintatticamente corretti e le relative
azioni univoche ad esse associate
Vediamo un elenco dei più famosi linguaggi di programmazione:
Fortran (1957)
C (1972)
Cobol
HTML
XML
Basic (1964)
C++ (1986)
Visual Basic
Javascript
Pascal (1970)
Java (1995)
SQL
VBScript
Programmare in un dato linguaggio di programmazione
significa generalmente scrivere uno o più semplici file
di testo, chiamato codice sorgente.
Ad esempio questo è un programma scritto in C:
#include <stdio.h>
int main(void)
{
printf("Hello World!\n");
return 0;
}
Il codice sorgente può essere eseguito sul
computer in modi diversi a seconda del tipo di
linguaggio di programmazione utilizzato, è
necessario quindi distinguere tra due principali
famiglie di linguaggi:


linguaggi interpretati: in questi linguaggi il
codice sorgente viene passato direttamente ad
un programma interprete che esegue le
istruzioni presenti nel codice del programma
sorgente
linguaggi compilati: in questi linguaggi il codice
sorgente viene compilato, ovvero viene tradotto
in linguaggio macchina dal compilatore che
produce così un file binario eseguibile
direttamente sul computer
Vediamo come il codice sorgente del precedente programma
C viene convertito in linguaggio assembly:
#include <stdio.h>
int main(void)
{
printf("Hello World!\n");
return 0;
}
N.B.: questo non è un file
binario eseguibile è un file di
testo che contiene il codice
sorgente del programma scritto
in linguaggio assembly (un
passo prima della traduzione in
linguaggio macchina).
.file "hello.c"
.section .rodata
.LC0:
.string "Hello World!"
.text
.globl main
.type main, @function
main:
pushl %ebp
movl%esp, %ebp
subl$8, %esp
andl$16, %esp
movl$0, %eax
addl$15, %eax
addl$15, %eax
shrl$4, %eax
sall$4, %eax
subl%eax, %esp
movl$.LC0, (%esp)
callputs
movl$0, %eax
leave
ret
Il linguaggio macchina è un linguaggio
comprensibile (praticamente) solo dal computer.
Ogni computer, o per meglio dire, ogni processore
ha un proprio codice macchina che può essere
diverso da processore a processore.
Il codice macchina è composto da un set di
istruzioni (detto ISA, Instruction Set Architecture)
codificate in codice binario.
Ad esempio i PC odierni utilizzano set di istruzioni
macchina chiamati:
 i386 (per processori a 32 bit)
 amd64 (per processori a 64 bit)
La nuova società dell’informazione è caratterizzata da
un impiego più ampio delle risorse informatiche.
Che cos'è l'informatica?
 è la tecnologia che viene utilizzata per la
progettazione e la realizzazione di moderni
elaboratori
Conseguenze sul lavoro e sulla vita quotidiana sono:
 nascita di una New Economy
 aumento della produttività in tutti i campi
 riduzione dei tempi e delle attese per i servizi
In questi anni si vedrà la diffusione capillare di
applicazioni generalizzate della ”Tecnologia
dell’informazione” anche detta ICT (Information and
Communication Technology)
New Economy: termine coniato alla fine degli anni '90 per indicare
ciò che si riteneva un'evoluzione da un'economia basata sulla
produzione industriale/manifatturiera, verso un'economia basata
sui servizi ed in particolare sulle nuove tecnologie informatiche e
telematiche gestibili su internet.
Conseguenze della New Economy:
 aumento di efficienza in fase di produzione ed erogazione dei
servizi da parte delle aziende
 perdita dei posti di lavoro tradizionali e nascita di nuovi impieghi
Il telelavoro
 riduce il pendolarismo
 i lavoratori possono concentrarsi su un compito specifico
 orari più flessibili
 non sono più necessari grandi spazi aziendali
 diminuzione dei rapporti umani
 mancanza del lavoro di gruppo (dipende)
Vediamo adesso alcuni possibili impieghi dei computer.
 In ambiente casalingo:









ricerca e studio
Giochi
tv, musica, film e fotografie (multimedia e intrattenimento)
telefonia e video-telefonia (VoIP), segreteria e fax
email e newsgroup
acquisti on-line (e-commerce)
on-line banking (o home banking)
Chat
In ambiente amministrativo:
registrazione pubblica (censimenti e registri)
 dichiarazione dei redditi
 voto elettronico


In ambiente ospedaliero:
catalogazione dei pazienti
 controllo delle ambulanze
 apparecchiature diagnostiche (ad esempio la TAC)
 apparecchiature chirurgiche (ad esempio bracci
meccanici di precisione)


In ambiente scolastico:





registrazione degli studenti
preparazione dell'orario (in maniera automatica)
CBT (Computer Based Training) per l'autoapprendimento
apprendimento a distanza (e-learning)
esercitazioni in rete via internet
Impatto sull'individuo
 il primostress determinato da ritmi sempre più frenetici
 riduzione dell'attività fisica e dei contatti interpersonali
 necessità di continui aggiornamenti sulle nuove tecnologie
 nuovi problemi nei settori di privacy e sicurezza
Evoluzione delle tecnologie elettroniche
 Il primo calcolatore della storia dell'informatica si chiamava
ENIAC ed aveva delle capacità di calcolo ridicole rispetto anche
ad un semplice telefono cellulare odierno
Il progresso è dovuto a vari fattori:
 miniaturizzazione dei componenti elettronici
 riduzione dei prezzi dei componenti
 maggiore facilità di uso delle apparecchiature hardware e
software
 ricerca di algoritmi e tecniche matematiche sempre più efficienti
Il computer è una apparecchiatura elettronica che possiede le
seguenti caratteristiche:
 è rapido nell'effettuare calcoli matematici (anche complessi)
 è preciso nell'esecuzione delle operazioni assegnategli
 è versatile
E' importante fin da ora distinguere le due componenti
implementative che costituiscono ciò che noi oggi chiamiamo
semplicemente “computer”:
 HARDWARE (HW): è la parte fisica di un personal computer,
ovvero tutte quelle parti magnetiche, ottiche, meccaniche ed
elettroniche che gli consentono di funzionare. Generalmente è
anche riferito a qualsiasi componente fisico di una periferica o di
una apparecchiatura elettronica.
 SOFTWARE (SW): indica un programma o un insieme di programmi
in grado di funzionare su un elaboratore.
Tanto per intendersi, il software “non si tocca con mano”,
l'hardware sì!
Esaminiamo adesso alcune delle caratteristiche principali dei
calcolatori.
Vantaggi:
 Rapidità
 Precisione
 capacità di eseguire numerose operazioni ripetitive
 capacità di riuscire a gestire grandi moli di dati
 capacità di riuscire ad integrare e memorizzare grandi moli di
dati
Svantaggi:
 mancanza di intelligenza e di creatività
 difficoltà in situazioni nuove non previste
 possibilità di guasti (sia a componenti HW sia a componenti SW)*
* Vedi ad esempio il “Millennium Bug”: errore software dovuto al
cambio del tipo di data in alcuni programmi (Problema Y2K).
Problema di alcuni software ormai risolto.
E' possibile suddividere l'insieme dei calcolatori
in varie categorie:
 Mainframe
 Minicomputer
 Network Computer
 Personal Computer
 Laptop Computer (o Notebook o Computer
Portatili)
 Palmari (o PDA – Personal Digital Assistant)
Personal Computer dovrebbe essere, nel significato
originale del termine, un qualsiasi computer che sia
stato progettato per l'uso da parte di una singola
persona (in opposizione per esempio ai mainframe a
cui interi gruppi di persone accedono attraverso
terminali remoti).
Al giorno d'oggi il termine personal computer è invalso
ad indicare una specifica fascia del mercato
dell'informatica, quella del computer ad uso privato,
o casalingo, per uffici, o per la piccola azienda.
Caratteristiche principali:
 basse prestazioni, ma adatte all'uso domestico
 basso costo
 impiegato per l'utilizzo individuale
Il computer portatile, conosciuto anche con i nomi
inglesi laptop e notebook, è un computer
caratterizzato principalmente dalla riduzione del
peso e delle dimensioni, per essere trasportato
con facilità. Stanno rapidamente sostituendo i
tradizionali PC desktop, offrendo a parità di
prestazioni una maggiore comodità.
Caratteristiche principali:
 basse prestazioni, ma adatte all'uso domestico
 basso costo (leggermente superiore a quello di
un PC Desktop)
 impiegato come sistema di elaborazione
portatile individuale
 possiede una alimentazione autonoma a batteria
E’ un’ulteriore evoluzione dei computer
portatili. Un tablet è dotato di un ampio
schermo sensibile al tatto. Per interagire
spesso si utilizza una penna o le dita.
Alle volte il tablet è costituito da un portatile
con lo schermo sensibile al tatto e ribaltable
su se stesso.
Un computer palmare (detto anche palmare), spesso indicato in
lingua inglese con l'acronimo PDA (Personal Digital Assistant), o
con l'ormai desueto termine palmtop, è un computer di
dimensioni contenute, tali da essere portato sul palmo di una
mano, dotato di uno schermo sensibile al tocco (o Touch Screen).
Originariamente concepito come agenda elettronica (organizer),
o sistema non particolarmente evoluto dotato di un orologio, di
una calcolatrice, di un calendario, di una rubrica dei contatti, di
una lista di impegni/attività e della possibilità di emorizzare note
e appunti (anche vocali) (personal information manager), si è nel
corso degli anni arricchito di funzioni sempre più potenti ed
avanzate.
Caratteristiche principali:
 basse prestazioni (meno potenti di Notebook e PC)
 basso costo (inferiore a quello di un Laptop o Desktop PC)
 impiegato come sistema tascabile in grado di prendere appunti
fare da agenda, ed effettuare semplici elaborazioni
 possiede una alimentazione autonoma a batteria
 è limitata la possibilità di collegamento con altre periferiche
Periferiche di INPUT
Tastiera
Mouse
Trackball
Scanner
Touchpad
Dispositivi di archiviazione
Hard disk interni/esterni
Unità di calcolo
CPU
Memoria principale
RAM
Periferiche di OUTPUT
CD/DVD
Penna USB
Speaker
Monitor
Stampante
Alimentatore
Lettore/Masterizzatore
CD/DVD
CPU
RAM
Scheda video
Scheda di rete
Hard disk
Scheda madre
Tastiera/Mouse
Porte USB
Porte Audio
Monitor
Porta FireWire
Porta Ethernet (di rete)
Porta Parallela
 Web
page: www.liceovolta.org/ecdl
 E-mail: [email protected]
Scarica

ECDL - Modulo 1 - Lezione !