Quantos gigas são necessários para criar uma pessoa?

Imagine se pudéssemos criar pessoas a partir de dados de computador. Em um mundo assim, quanta memória seria necessária para gerar alguém?

ANÚNCIO

Bits, bytes e outros

bit1

Os computadores não entendem humanos, afinal eles são máquinas. E mesmo que fossem capazes de entender o que dizemos, tudo seria muito complicado. A comunicação humana é muito ineficaz, pois a mesma frase com as exatas mesmas palavras pode ter significados diferentes. Por exemplo, se alguém lhe dizer: “Você me deve algo”. Isso pode ser uma afirmação, uma pergunta (se tiver uma interrogação no final), também pode ser uma acusação ou mesmo uma ameaça… Infelizmente, os computadores são burros e não entendem essas diferenças, por isso eles usam uma linguagem muito mais simples e clara: Zeros e uns.

ANÚNCIO

Todo computador trabalha com código binário, que nada mais é que uma sequência de zeros e uns. Mesmo quando você manda sua calculadora (que é um computador menos potente) fazer a soma de “4 + 5”, ela usa binários. Em código binário, quatro é representado por 0100 e cinco por 0101. A verdade é que o computador não sabe o que é um quatro ou um cinco, ele só vê os zeros e uns e faz a operação informada. Por isso quando você aperta a tecla '+', a calculadora avisa seu processador interno para somar aquelas duas sequências binárias e mostrar o resultado em seguida. Assim o computador gera o resultado, que seria nove (1001 em binário).

Isso é tudo que um computador, mesmo o mais potente do mundo consegue fazer: Mexer com uns e zeros. Claro que, hoje em dia, nós conseguimos criar máquinas capazes de fazer operações bem mais complexas do que essas, mas, no fundo, todo computador não passa de uma máquina que soma, diminui, movimenta e mexe com binários.

ANÚNCIO

bit-byte diferença binário velocidade da internet

Cada um ou zero é chamado de bit, a informação mínima que um computador pode trabalhar. Para gerar operações e programas mais complexos, o número de bits precisa ser maior. Os PC's mais antigos usavam uma corrente de 8 bits (11110000) para fazer suas operações. Essa quantidade de informação é chamada de byte.

Com o passar do tempo, os computadores começaram a lidar cada vez com mais informação. Hoje em dia, quase todos os computadores pessoais mexem com informações de 64 bits.

Foi na época onde os computadores surgiram, que as medidas de memória foram criadas e são usadas até hoje. Um megabyte é um milhão de bytes, que representa oito milhões de bits. E como todo mundo bem sabe, um Mega não é nada hoje em dia, onde os gigas são mais usados.

DNA e codificação

dna-23andme

O DNA humano é como se fosse um programa de computador formado por uma corrente de 6 bilhões de letras, sendo elas: A, T, G e C. Se pegássemos essas letras e as transformássemos em código binário, poderíamos codificá-la assim: A = 00; T = 01; G = 10; C = 11.

Usando essa codificação, cada ser humano poderia ser criado usando apenas 1,5 giga de informação! Isso mesmo, você caberia dentro de um DVD e ainda sobraria espaço para mais dois amigos.

Na verdade, se desejássemos poupar espaço, um ser humano poderia ocupar apenas um disquete! Como todos nós dividimos 99,9% do DNA com outros humanos, bastaria haver uma cópia do que não muda e salvar o 0,01% de diferente em um disque de 1,44 MB para que um dia você fosse recriado do nada.

Infelizmente essa tecnologia ainda não existe, mas quem sabe um dia nós poderemos salvar nós mesmos em um pendrive para uma possível cópia no futuro!