Os
Tipos de Computação
Todo programa-máquina
(programáquina) tem um hardware, parte dura, máquina, e um ou vários softwares,
parte mole, os programas que rodam nele.
Como começou assim, há
uma placa de silício onde são gravados os circuitos cada vez mais
miniaturizados, conduzidos pela chamada “Lei de Moore”, que diz que a
capacidade computacional dobra a cada 18 meses, prevendo-se um limite
irredutível para 2005. Na verdade não é lei, é mais um princípio empírico, uma
observação desse camarada.
A coisa toda veio das
Máquinas Universais de Babbage, nunca construídas em vida dele (foram
aprontadas recentemente), depois passou pelos teóricos da
informática-cibernética, desde o enorme ENIAC que ocupava salas inteiras e cuja
capacidade computacional era menor que uma maquininha dessas de mão de hoje,
até os supercomputadores Cray e IBM da atualidade.
Mas sempre com
circuitos.
Primeiro como válvulas,
depois como transistores, agora como filmes impressos em espaços tão pequenos
como unhas, ou até como pontas de lápis. Fala-se em computação quântica.
Mas sempre os circuitos
e a computação linear, seqüencial, digital, com as chamadas “portas lógicas” (o
nome é inconveniente, como veremos depois) definidas neles, um cálculo sendo
feito após o outro, em seqüência, a enormes e crescentes velocidades.
Não há computação
paralela, como no cérebro humano.
Então, para recolocar as
coisas em seus devidos lugares, devemos dividir o hardware do computador, a
máquina, em suas partes de memória e de inteligência. De memória seriam o disco rígido, o disquete, o zip-disk, o driver
de CD e até mesmo os circuitos, que podem funcionar como memória permanente,
não-apagável. Uns são de operação interna (o disco rígido e os circuitos) e
outros de entrada (o disquete, o zip-disk, o driver de CD e outros), não se
confundindo com o teclado, que é um dispositivo de entrada, e o mouse, que é um
operador da área de trabalho.
O transferidor de inteligência dos programas, ou conversor interno, é
o conjunto de circuitos. Sempre. Eles são fixos, não mudam de lugar, estão na
placa-mãe. Então, o propósito é constantemente diminuir a placa-mãe, colocando
mais circuitos, ou aumentando a velocidade de operação.
Por quê?
Porque começou assim, e
ninguém muda o jeito de pensar.
E esse modo de pensar
não permite o processamento não-paralelo, não-linear. Os dados vão entrando um
após o outro, e só após ter sido terminado um cálculo o seguinte é começado,
daí a necessidade de grandes velocidades.
Por exemplo, a língua
não trabalha assim. Não precisamos de mãos cada vez mais rápidas, nem de folhas
que vão virando de modo cada vez mais rápido e automático. Nós mudamos de
página.
Do mesmo modo, o
computador poderia ter dispositivos que usassem A MEMÓRIA de disco rígido, cada
vez maior, chegando a discos de 80 GB (gigabytes), 80 bilhões de bytes. É só
desenhar os circuitos provisoriamente em certas porções dele. E, assim fazendo,
podem ser desenhados circuitos paralelos para processamento paralelo, como no
cérebro humano.
Então, vamos chamar de
CIRCUITOS FIXOS, F, e de CIRCUITOS VARIÁVEIS, V. Desse modo os computadores que
podem existir são de quatro tipos: FF, FV, VF e VV, desde os totalmente duros
até os totalmente moles, com as partições intermediárias sendo frações F/V tipo
0,2F/0,8V, ou o que fosse. Com os circuitos FF é preciso colocar vários
computadores juntos para fazer algum processamento paralelo, ligando-os em
rede. Com os VV, sem nenhum circuito impresso, o programa inicial de comando
iniciaria na memória o desenho de qualquer número e gênero de circuitos, que
seriam usados e depois apagados, ou não. Desse modo as máquinas poderiam
funcionar como os cérebros humanos, e não teriam mais limite de Moore
para construção.
E a capacidade analógica
de processamento, junto com a alta velocidade digital, nos daria capacidades
computacionais que em instantes ultrapassariam de longe a capacidade paralela
do cérebro humano, juntando o novo paralelismo da máquina ao seu antigo seqüenciamento.
Vitória, quarta-feira,
10 de abril de 2002.
No comments:
Post a Comment