Unidades – Bits e Bytes e por aí vai

Mudamos para http://infoachei.com.br/
Obrigado pela visita!

Moved to http://infoachei.com.br/
Thanks for visits!

Os computadores “entendem” impulsos elétricos, positivos ou negativos, que são representados por 1 e 0, respectivamente. A cada impulso elétrico, damos o nome de Bit (BInary digiT). Um conjunto de 8 bits reunidos como uma única unidade forma um Byte.

Para os computadores, representar 256 números binários é suficiente. Por isso, os bytes possuem 8 bits. Basta fazer os cálculos. Como um bit representa dois valores (1 ou 0) e um byte representa 8 bits, basta fazer 2 (do bit) elevado a 8 (do byte) que é igual a 256.

Os bytes representam todas as letras (maiúsculas e minúsculas), sinais de pontuação, acentos, sinais especiais e até sinais que não podemos ver, mas que servem para comandar o computador e que podem, inclusive, serem enviados pelo teclado ou por outro dispositivo de entrada de dados e instruções.

Para que isto aconteça, os computadores utilizam uma tabela que combina números binários com símbolos: a tabela ASCII (American Standard Code for Information Interchange). Nesta tabela, cada byte representa um caractere ou um sinal.

A partir daí, foram criados vários termos para facilitar a compreensão humana da capacidade de armazenamento, processamento e manipulação de dados nos computadores. No que se refere aos bits e bytes, tem-se as seguintes medidas:

1 Byte = 8 bits

1 Kilobyte (ou KB) = 1024 bytes

1 Megabyte (ou MB) = 1024 kilobytes

1 Gigabyte (ou GB) = 1024 megabytes

1 Terabyte (ou TB) = 1024 gigabytes

1 Petabyte (ou PB) = 1024 terabytes

1 Exabyte (ou EB) = 1024 petabytes

1 Zettabyte (ou ZB) = 1024 exabytes

1 Yottabyte (ou YB) = 1024 zettabytes

É também através dos bytes que se determina o comprimento da palavra de um computador, ou seja, a quantidade de bits que ele utiliza na composição das instruções internas, como por exemplo:

8 bits – palavra de 1 byte

16 bits – palavra de 2 bytes

32 bits – palavra de 4 bytes

Na transmissão de dados entre computadores, geralmente usa-se medições relacionadas a bits e não a bytes. Assim, existem também os seguintes termos:

1 Kilobit (ou Kb) = 1024 bits

1 Megabit (ou Mb) = 1024 Kilobits

1 Gigabit ou (Gb) = 1024 Megabits

Note que quando a medição é feita em bytes, o B da sigla é maiúsculo (como em GB). Quando a medição é feita em bits, o B da sigla fica em minúsculo (como em Gb).

Publicado em 1. Leave a Comment »

IBM e o PC de 20 Petaflops

IBM anuncia a construção de supercomputador de 20 petaflops

Redação do Site Inovação Tecnológica
03/02/2009

A IBM anunciou o início da fabricação de um novo supercomputador da classe Blue Gene, denominado Sequóia, que deverá atingir a capacidade de cálculo de 20 petaflops.

O atual recordista da empresa é o Roadrunner (Papa-léguas), que atingiu 1,02 petaflop – 1,02 quadrilhão de cálculos por segundo.

O novo supercomputador deverá ficar pronto em 2011 e ser instalado no início de 2012 no Laboratório Nacional Lawrence Livermore, onde será utilizado para analisar os riscos envolvidos com o armazenamento das armas nucleares norte-americanas.

O Sequóia usará 100.000 processadores PowerPC fabricado com tecnologia de 45 nanômetros, com 16 núcleos por chip, em uma frequência ainda não definida, mas certamente muito superior aos 850 MHz dos PowerPC atuais.

O supercomputador contará com 1,6 petabytes de memória RAM e será montado em 96 racks, ocupando uma área de mais 300 metros quadrados e consumindo 6 megawatts de energia ao ano.

Os cientistas calculam que um supercomputador com capacidade de cálculo de apenas 1 petaflop seria suficiente para criar mundos virtuais com a qualidade vista nos filmes Matrix.

 

Mundo virtual tipo Matrix pode se realizar em poucos anos

Colin Barras – NewScientist
07/04/2008

Pelo menos esta é a opinião de Michael McGuigan, do Laboratório Nacional Brookhaven, nos Estados Unidos. Segundo ele, os supercomputadores estão se aproximando de adquirir capacidades que os permitirão criar realidades virtuais ‘à la Matrix’.

Segundo ele, mundos virtuais que poderão ser confundidos com o mundo real estão há apenas alguns anos de se realizarem.

Teste de Turing Gráfico

Em 1950, Alan Turing, o pai da moderna ciência da computação, propôs o teste definitivo para a inteligência artificial – uma pessoa deveria participar de uma conversa conjunta com outra pessoa e com um computador, e não deveria ser capaz de distinguir quem era o computador.

Os adeptos da realidade virtual criaram uma variante desse teste, o agora chamado Teste de Turing Gráfico – um júri humano interagindo com um mundo virtual deverá ser incapaz de distinguí-lo da realidade.

“Nós queremos dizer com interação, que você poderá controlar um objeto – girá-lo, por exemplo – e ele será criado de forma automática em tempo real,” explica McGuigan.

Mundo virtual em tempo real

Essa ‘criação de forma automática’, mais conhecida como renderização, e em tempo real, é o grande desafio. Os computadores atuais já conseguem produzir cenas realísticas, mas elas consomem horas de processamento e jamais poderiam se aproximar de uma interação em tempo real.

Segundo McGuigan, a chave para se passar pelo Teste de Turing Gráfico é juntar o fotorrealismo que já existe com um programa capaz de renderizar imagens com uma taxa de atualização de 30 quadros por segundo.

Supercomputadores 10 vezes mais rápidos

Para medir a atual capacidade dos supercomputadores, o cientista resolveu testar o supercomputador Blue Gene/L da IBM, que possui 2.000 microprocessadores, capazes de fazer 103 trilhões de operações de ponto flutuante por segundo, ou 103 teraflops.

Ele descobriu com um programa tradicional de renderização roda 822 vezes mais rápido no Blue Gene do que em um computador pessoal, sem qualquer otimização do software que pudesse tirar proveito do processamento paralelo.

Isso ainda é insuficiente para se candidatar ao Teste de Turing Gráfico, mas deu ao pesquisador uma idéia do poder de processamento que será necessário para a renderização dos mundos virtuais em tempo real: acima de um petaflop, o que equivale a 1.000 teraflops. Ou seja, só teríamos que esperar até que os supercomputadores sejam 10 mais poderosos do que são hoje.

Publicado em 1. Leave a Comment »

Brasil terá novo supercomputador

 

 

Mudamos para http://infoachei.com.br/
Obrigado pela visita!

Moved to http://infoachei.com.br/
Thanks for visits!

Brasil terá novo supercomputador para estudar o clima

Agência Fapesp
09/09/2008

O Brasil terá a quinta ou a sexta maior capacidade do mundo para modelagens climáticas a partir do primeiro semestre de 2009, quando está prevista a chegada de um novo supercomputador ao Instituto Nacional de Pesquisas Espaciais (Inpe).

A afirmação é de Carlos Nobre, pesquisador do Centro de Previsão do Tempo e Estudos Climáticos (CPTEC) do Inpe. De acordo com ele, o sistema computacional estará ainda entre os 50 maiores do mundo levando em conta todas as aplicações.

Clube dos 15 da modelagem climática

“Ele nos colocará em um clube de 15 países que têm essa capacidade de modelagem climática. Desses, apenas a China e a Coréia do Sul são nações em desenvolvimento”, disse Nobre à Agência FAPESP.

O supercomputador será instalado no CPTEC, junto ao Centro de Ciência do Sistema Terrestre do Inpe, dirigido por Nobre. O sistema, que terá capacidade de processamento de 15 teraflops (15 trilhões de operações matemáticas por segundo), será adquirido por meio de uma parceria entre a FAPESP e a Financiadora de Estudos e Projetos (Finep).

“O valor total do investimento para o supercomputador é de R$ 37 milhões, sendo R$ 24 milhões provenientes do Fundo Nacional de Ciência e Tecnologia e R$ 13 milhões da FAPESP. Além disso, mais R$ 11 milhões para infra-estrutura virão do governo federal. Estamos iniciando o processo de licitação internacional para a compra”, disse Nobre.

Segundo ele, 30% do tempo do supercomputador será reservado para projetos apoiados pelo Programa FAPESP de Pesquisa sobre Mudanças Climáticas Globais, lançado no fim de agosto.

Atualização constante

Nobre lembra que o primeiro supercomputador brasileiro, modesto para os padrões atuais, foi adquirido em 1997. O segundo teve a sua primeira parte adquirida em 2001 e a segunda em 2004.

“Quando recebemos esse segundo, ele estava entre a 30ª ou 40ª posição entre as máquinas com mais capacidade voltadas para a área de meteorologia e clima. Hoje, já caímos para além do centésimo lugar”, disse.

O novo supercomputador incluirá o Brasil definitivamente na lista dos países mais bem equipados para modelagem climática. “Haverá uma mudança filosófica. Tenho certeza de que, depois de receber o novo computador em 2009, em 2013 teremos mais um. Vamos entrar nesse eixo e, como fazem outros países, começar a trocar de equipamentos a cada cinco anos para uma nova geração”, afirmou.

Próximo relatório do IPCC

Segundo Nobre, com a nova capacidade computacional o Brasil terá papel central na elaboração do próximo relatório do Painel Intergovernamental de Mudanças Climáticas (IPCC). “Finalmente poderemos desenvolver a modelagem de sistemas climáticos de forma autônoma. Com modelos próprios, que representarão melhor as condições locais, vamos ter autonomia para gerar cenários de mudanças climáticas. Isso é importante porque vamos ter mais certeza do que estamos fazendo”, explicou.

O cientista afirmou ainda que o supercomputador dá ao país uma possibilidade única para trabalhar possibilidades de adaptação às mudanças climáticas.

“Mais de 50% do PIB brasileiro têm a ver com recursos renováveis, como energia. Temos também a maior expressão de biodiversidade do mundo. São aspectos vulneráveis para as mudanças do clima e é nossa responsabilidade estudar as formas de cuidar desses recursos”, disse.

Publicado em 1. Leave a Comment »

Processadore de Multiplos Nucleos e Supercomputação

Mudamos para http://infoachei.com.br/
Obrigado pela visita!

Moved to http://infoachei.com.br/
Thanks for visits!

Processadores de múltiplos núcleos criam gargalo para supercomputação

Redação do Site Inovação Tecnológica
17/02/2009

Depois que o calor dissipado pelos processadores colocou uma barreira real ao aumento de sua frequência de funcionamento, a indústria passou a apostar nos processadores multicore, ou de múltiplos núcleos, nos quais os cálculos são distribuídos entre os diversos “mini-processadores” no interior de um único processador.

Limitações dos processadores multicore

Mas esta saída tem seus limites. Segundo pesquisadores dos Laboratórios Sandia, nos Estados Unidos, processadores com 16 núcleos têm um desempenho muito similar a processadores com apenas 2 núcleos, quando os dois são colocados para efetuar cálculos complexos.

Simulando cálculos de data mining, que visam retirar informações de grandes conjuntos de dados, os pesquisadores descobriram que há um aumento significativo de velocidade quando se passa de processadores de 2 núcleos para processadores de 4 núcleos.

Contudo, ao passar de 8 núcleos, o desempenho começa a cair rapidamente e de forma totalmente inesperada. Os processadores com 16 núcleos voltam ao rendimento dos processadores de apenas 2 núcleos. Superando 16 núcleos, o desempenho cai ainda mais.

Disputa pelo barramento de memória

Segundo os pesquisadores, são duas as causas para o problema. A primeira é a falta de largura de banda de memória. O segundo é a disputa entre os núcleos pelo barramento de memória disponível para cada processador.

Quando o número de núcleos supera 8, a falta de acesso imediato a caches de memória individualizados torna o processo de cálculo mais lento.

O problema deverá afetar sobremaneira o desenvolvimento de novos supercomputadores, que contam com o aumento de núcleos por processador como uma estratégia para o aumento da velocidade.

“De certa forma, isto está apontando para o óbvio – muitas de nossas aplicações têm sido limitadas pelo acesso ao barramento de memória mesmo em processadores de um único núcleo,” diz o pesquisador Arun Rodrigues. “Entretanto, esta não é uma questão para a qual a indústria tenha uma solução conhecida, e o problema é frequentemente ignorado.

Publicado em 1. Leave a Comment »

ITIL – Importância

Mudamos para http://infoachei.com.br/
Obrigado pela visita!

Moved to http://infoachei.com.br/
Thanks for visits!

Por que adotar o ITIL?


O ITIL consiste no modelo de gerenciamento de processos de TI, sendo o recurso mais aceito mundialmente. Sua estrutura foi criada pela OGC – Office of Government Commerce, antiga secretaria do comércio do governo inglês. É o conjunto de processos que reúne as melhores práticas para se adotar no gerenciamento dos serviços de TI em uma organização.

Para o desenvolvimento da área de TI, o ITIL é uma referência reconhecida mundialmente. Criado na Inglaterra, consiste no conjunto de normas e orientações para gerenciamento e desenvolvimento de tecnologias em empresas.

Vantagens

Ao implementar o ITIL em uma organização, a área de TI deixa de ser vista como um departamento, mas como parte integrante do negócio. Alguns exemplos demonstram as vantagens da implementação do ITIL:

– facilita o gerenciamento de serviços de TI e, conseqüentemente, de toda a empresa;
– oferece uma linha de trabalho consistente, padronizada e eficiente;
– redução, a longo prazo, dos custos dos serviços prestados;
– melhora o processo de comunicação entre funcionários, parceiros e clientes da empresa;
– aumenta a satisfação de todos os envolvidos, ao definir corretamente as metas e expectativas.

Atualmente, o ITIL já é uma norma integrante da ISO 9000/2000, a BS-15000. Considerando a área de TI essencial em uma estrutura organizacional, o ITIL propõe abranger a coordenação de todos os segmentos. A ferramenta sugere a medição de níveis de serviços e de metas; assim é possível saber o que se tem e o que é necessário melhorar.

Há duas versões utilizadas atualmente, a 2 e a 3. A seguir, diferenças essenciais entre elas:

Resumo da ITIL v2

É a versão atualmente aceita como melhores práticas para gestão de TI. Baseada em processos, é composta por dez livros, citados abaixo:

– Suporte a Serviços;
– Entrega de Serviços;
– Planejando para a implementação da gestão de serviços;
– Gestão da Infra-estrutura de TI;
– Perspectivas de Negócio Volumes I e II;
– Gestão de recursos de Software;
– Gestão de Aplicações;
– Gestão de Segurança;
– ITIL – Implementação em pequena escala.

Resumo da ITIL v3

Baseada em ciclos de vida de serviços, incorpora o melhor da versão anterior. A nova biblioteca agora conta com cinco publicações:

– Estratégia de serviços;
– Desenho de serviços;
– Transição de serviços;
– Operação de serviços;
– Melhoria contínua de serviços.

Apesar de aparentar uma mudança de estrutura, todos os processos já definidos em uma aplicação na prática baseados na versão 2 da ITIL estão alinhados com os modelos definidos na versão 3.

A versão 3 foi lançada oficialmente em maio de 2007, porém não é largamente utilizada pelas organizações que desejam gerir a área de TI de forma eficiente. Por ser complexa a gerência de TI, as empresas ainda estão assimilando a versão 2. E, em pouco tempo, atraídas pelas possibilidades da atualização, migrarão para a versão 3.

Migrar imediatamente não é necessário, nem recomendado. A mudança deve ser feita de acordo com a necessidade da empresa e o tempo e recursos disponíveis. Os dez processos e a única função descritos pelos dois livros principais (Entrega de Serviços e Suporte a Serviços) do ITIL estão revisados e incluídos na nova versão, evidentemente com algumas melhorias. A evolução de um modelo de processos da versão 2 para um modelo baseado em serviços da versão 3, traz um conceito de ciclo de vida. Essa expressão designa o serviço de TI desenvolvido por uma organização, desde o seu planejamento até a sua entrega, marcado por várias fases.

Qualificação

Profissionais qualificados em ITIL modificam sua visão dos negócios, ao entender que a TI é uma ferramenta para otimizar a capacidade e os recursos de pessoas, tecnologias e organizações.

O ITIL é composto por conceitos amplamente divulgados e testados no mundo. É fato que os profissionais que possuem esse conhecimento despertam mais o interesse das empresas. Quem possui uma certificação é visto como um diferencial para o desenvolvimento de uma organização.

Publicado em 1. Leave a Comment »