TESTO
mani

Il più famoso set di caratteri è l' ASCII (acronimo di American Standard Code for Information Interchange), questo set ha costituito il primo standard per la rappresentazione binaria dei caratteri ed è stato la base per tutti i set successivi.
I 128 punti di questo codice ASCII erano sufficienti per poter codificare dei testi esclusivamente con i caratteri dell' alfabeto latino mentre diventavano pochi nel caso di una lingua come l' italiano.
Per ovviare a questo limite furono create delle estensioni che utilizzavano 8 bit per la codifica. La soluzione a questo limite delle estensioni ASCII è stata individuata con lo standard Unicode. Oggi l' ultima versione fornisce la codifica di 96.382 caratteri.

UTF-8 E UTF-16

UTF (Unicode Transformation Format) è una famiglia di standard per la codifica dei caratteri Unicode nel suo equivalente valore binario.
L' UTF è stato sviluppato in modo tale che gli utenti possano disporre di un mezzo standar per codificare con una minima quantità di spazio.
Entrambi sono a larghezza variabile e possono utilizzare fino a 4 byte per codificare i dati, ma quando si riduce al minimo, l' UTF-8 utilizza solamente 1 byte (8 bit) mentre l' UTF-16 utilizza 2 byte (16 bit). Quando si utilizzano solo caratteri ASCII, un file con la codifica UTF-16 sarebbe grande il doppio rispetto al file codificato UTF-8.
UTF-8 è in formato byte oriented quindi non ha alcun problema con reti o file orientati ai byte, invece l' UTF-16 non è orientato ai byte perciò ha bisogno di stabilire un ordine dei byte.
UTF-8 è migliore nel recuperare da errori che corrompono parti del file in quanto può ancora decodificare il prossimo byte non corrotto, l' UTF-16 fa esattamente la stessa cosa ma se dei byte vengono persi questi potrebbero mescolare le combinazioni successive.

Il seguente link porta ad un convertitore caratteri in codice ASCII e codice ASCII in caratteri, con questo possiamo avere un' idea di come risulti al pc un testo che noi digitiamo.
CONVERTITORE