O computador possui algumas unidades de medida para saber o tamanho que os arquivos e dados ocupam na máquina. Desse modo, os usuários podem saber a quantidade de informações que é possível armazenar no aparelho.
Assim, preparamos uma lista onde apresentamos o formato das medições que são utilizadas na informática. Então é sobre é isso que estaremos falando nesse artigo completo a respeito do assunto.
O computador e suas unidades de medida
Para que seja possível determinar qual a capacidade de armazenamento é necessário calcular o tamanho dos arquivos. Nesse sentido, o código binário é usado para a realização dessa tarefa de armazenamento.
O bit é considerado como sendo a menor unidade de medição na informática e possui apenas dois estados. No caso, temos os números 0 e 1 que ao reunir 8 bits formam um byte.
Com isso, o computador utiliza uma tabela que conta com pelo menos 256 caracteres, números e símbolos. Ao passo que esses 8 bits (byte) conseguem representar todos esses 256 itens diferentes.
Já que é feito um cálculo que consiste em:
2 elevado a oitava potência = 256.
Por certo, o byte surge dessa união dos 8 bits e cada um deles forma um caractere no computador. Certamente com o aumento na quantidade de dados e informações, surgiu uma tabela de medidas para facilitar.
A tabela de unidades de medidas que são aplicadas em um computador
Assim como calculamos o peso em quilogramas, o computador possui as suas próprias unidades de medidas. Dessa forma, vamos conferir a composição da tabela com os principais itens:
1 byte: 8 bits;
1 kilobyte: 1024 bytes;
1 megabyte: 1024 kilobytes;
1 gigabyte: 1024 megabytes;
1 terabyte: 1024 gigabytes.
De fato, isso torna possível realizar a definição dos caracteres que um computador poderá armazenar em seu HD. Além disso, o byte consegue guardar apenas uma letra do alfabeto.
Enquanto que o kilobyte costuma estar presente nos arquivos de texto, principalmente do Microsoft Word. Por sua vez os Megabytes normalmente podem ser encontrados nas fotos e também em músicas.
Os gigabytes são bem maiores e comportam os filmes que possuem alta resolução ou mesmo até 200.000 músicas. Por fim, o petabyte seria capaz de armazenar informações de uma grande parcela de livros. Vale lembrar que a base do cálculo possui uma potência de base 2.
História do byte
Antigamente a representação dos caracteres eram feitos por apenas 6 bits, pois isso era o suficiente na época. Dessa maneira, isso gerava um resultado de até 64 caracteres, incluindo o alfabeto, números e alguns símbolos.
O byte com 8 bits surgiu apenas quando a empresa IBM implementou esse processo no mercado. No ano de 1960 foi gerado o código chamado de EBCDIC e o computador da companhia foi um grande sucesso.
Assim a padronização do byte com 8 bits foi feita e em 1961 surgiu o código ASCII das teclas. Atualmente as representações dos caracteres de um computador tem diferentes códigos, tais como:
UNICODE;
UTF;
UTF-16;
UTF-32.
Enquanto que existem versões com 1, 2 e até 4 bytes, o que permite armazenar caracteres de diversos idiomas. Portanto, esse sistema ajuda a calcular o espaço em disco e organiza melhor as informações.
Artigo escrito por Cláudio Veríssimo: Escritor e Redator (Freelancer).
Com experiência de 2 anos como Redator e Escritor, Cláudio é Técnico em Informática, Publicitário e Pós-graduado em MBA Em Comunicação e Marketing.
Ele também já escreveu centenas de artigos para a internet com configuração SEO e todos os seus textos são de autoria própria. Em breve será lançado o seu e-book "Aprendendo a Jogar Xadrez".
Proibida a cópia ou reprodução do artigo sem o consentimento do autor.
Comments