Novas Tecnologias da Informação

Postar as novas tecnologias da informação existentes.

Este item está relacionado com: Apresentação Inovações tecnológicas dos conceitos de dado, informação e conhecimento. Apresentação dos Fundamentos e classificação dos sistemas de Informação e os fundamentos da informação. Apresentar as vantagem competitiva e informação. Definição e execução de estratégias de informação. Apresentação de como faz-se o desenvolvimento de um plano de implementação de Gestão de Sistemas de Informação em organizações utilizando modelos de SI.

Uso estratégico e administração da tecnologia da informação e comunicação. Aplicação da tecnologia da informação na empresa para a obtenção de vantagens competitivas. Globalização e estratégia competitivas. Relatórios: interpretação, elaboração e utilização no sistema de informações.

34 Respostas

  1. Informação Pessoal

    Blog

    http://www.maysadecastro.com.br/blog/2007/09/12/blog-de-famosos

    Informação Tecnológica

    Universidade desenvolve robô controlado por cérebro biológico
    Objetivo do robô é auxiliar pesquisadores a avaliarem como a memória se manifesta no cérebro e como este armazena dados.
    A Universidade de Reading revelou, nesta quinta-feira (14/08), um robô controlado por um cérebro biológico, composto por neurônios artificiais.

    A pesquisa será útil para avaliar como a memória se manifesta no cérebro e como o mesmo armazena informações. O objetivo principal é entender doenças e desordens cerebrais, como Mal de Alzheimer e de Parkinson, entre outros.
    O cérebro biológico do robô é composto de neurônios artificiais, posicionados em uma linha com 60 eletrodos, que colhem os sinais elétricos gerados pelas células.

    Esta ação movimenta o robô e, cada vez que ele se aproxima de um objeto, os sinais são enviados para estimular o cérebro. Em resposta, o cérebro direciona o movimento de suas rodas, evitando objetos.
    O robô se move sem a ajuda humana ou de um computador – o controle vem apenas de seu cérebro.
    Os cientistas estão trabalhando para que o robô aprenda a aplicar diferentes sinais cerebrais ao se movimentar em posições pré-definidas. Assim, será possível aprender como as memórias se manifestarão no cérebro quando o robô voltar a lugares conhecidos.
    http://idgnow.uol.com.br/computacao_pessoal/2008/08/14/universidade-desenvolve-robo-controlado-por-cerebro-biologico/

    Informação Informativa

    Jornal de Santa Catarina 01/09/2008

    Lombadas eletrônicas começam a funcionar

    Balneário Camboriú – As lombadas eletrônicas instaladas na Avenida do Estado, na rótula do Bairro Ariribá e em frente ao Portal Turístico, entram em funcionamento hoje. Além das lombadas, seis radares também começarão a medir a velocidade dos veículos que circulam na cidade. Durante 40 dias, a comunidade poderá se ambientar e conhecer o funcionamento dos equipamentos. Nesse período, não serão emitidas multas.

    http://www.clicrbs.com.br/jornais/jsc/jsp/default2.jsp?uf=2&local=18&edition=10599&template=&start=1&section=Geral&source=Busca%2Ca2152504.xml&channel=31&id=0&titanterior=&content=&menu=58&themeid=&sectionid=&suppid=&fromdate=&todate=&modovisual=

    Informação Cientifica

    Cientistas da USP criam primeiras células-tronco embrionárias brasileiras

    Avanço marca início das pesquisas feitas com amostras nacionais no país.
    Foram precisos pouco mais de 30 embriões para obter linhagem estável.
    A ciência brasileira acaba de obter a primeira linhagem de células-tronco embrionárias humanas em solo nacional. O avanço inédito, obtido por pesquisadores do Instituto de Biociências da Universidade de São Paulo, deve ser anunciado na manhã desta quinta-feira em Curitiba, durante um simpósio de terapia celular ocorrendo naquela capital.
    O sucesso foi uma combinação de muito suor e alguma audácia por parte do grupo liderado por Lygia da Veiga Pereira, uma vez que a liberação definitiva para a produção de células-tronco embrionárias humanas só veio com a decisão do Supremo Tribunal Federal, em maio de 2008, que julgou improcedente a Ação Direta de Inconstitucionalidade contra a Lei de Biossegurança, que havia sido aprovada pelo Congresso em 2005.

    Se o grupo tivesse começado as pesquisas apenas após o julgamento no Supremo, não teria sido possível avançar tão depressa. “Na verdade, em 2005 as pesquisas haviam sido liberadas. A existência da ação de inconstitucionalidade não proibia. Essa foi a minha interpretação”, conta Pereira.

    Ela usa como argumento que seu projeto foi aprovado pelo Ministério da Saúde e pelo Ministério da Ciência e Tecnologia e recebeu financiamento já em 2006. “Entendi isso como um sinal para ir adiante.”

    Mas nem tudo foram flores. Por conta da insegurança jurídica, houve gente no grupo de Pereira que teve a bolsa de estudos negada pela Fapesp (Fundação de Amparo à Pesquisa do Estado de São Paulo), que temia uma proibição mais adiante. Mesmo assim, com o auxílio de verbas federais e de instituições privadas, o grupo prosseguiu.

    E, cerca de três meses atrás, após 35 tentativas, os cientistas conseguiram extrair a primeira linhagem estável de células-tronco a partir de um embrião. Desde então, os pesquisadores passaram a multiplicar essas células. Finalmente, algumas semanas atrás, conseguiram determinar que as células obtidas eram pluripotentes — podiam se transformar em qualquer tipo de tecido.

    É exatamente por isso que as células-tronco embrionárias são tão cobiçadas. Agindo como curingas celulares, elas são teoricamente capazes de se transformar em qualquer tipo de célula que existe no corpo humano. Por isso há a esperança de que possam, no futuro, ser aplicadas em tratamentos de doenças hoje incuráveis, restabelecendo a saúde a órgãos ou tecidos danificados. Entre as muitas enfermidades que poderão um dia ser combatidas com terapia celular estão diabetes, mal de Parkinson e problemas cardíacos.

    “Já vimos nossas células se transformarem em neurônio e músculo”, diz Pereira. “Pretendemos fazer agora testes em animais, para confirmar essa pluripotência.”
    Células-tronco 2.0
    A primeira linhagem brasileira de células-tronco já se beneficiou dos esforços obtidos por grupos estrangeiros que se mostraram equivocados. No início das pesquisas nos EUA, as células eram cultivadas junto com tecido animal, o que acabava produzindo uma contaminação permanente e impedindo seu uso em futuros testes clínicos.

    No Brasil, aprendendo com os erros dos outros, o grupo de Lygia da Veiga Pereira evitou essa técnica e partiu para formas mais modernas de cultivar as células. “De certo modo, estamos com isso mais perto de trazer essas células-tronco para um cenário de testes clínicos. É como se fosse uma versão 2.0”, diz.

    Da biologia para a medicina
    Por enquanto, a imensa maioria dos trabalhos com células-tronco embrionárias tratam muito mais de ciência básica do que de tentar desenvolver tratamentos clínicos. Com as pesquisas brasileiras, não vai ser diferente.

    Isso porque existem muitos riscos envolvidos com a inserção de células-tronco embrionárias em pacientes. Em animais, uma célula-tronco embrionária à solta já mostrou que pode se transformar num teratoma — uma espécie de câncer composto por todo tipo de tecido, de forma desordenada.

    Para evitar que algo similar possa acontecer com humanos, os cientistas estão se acautelando e garantindo que tenham um entendimento completo de como controlar a diferenciação das células-tronco, de forma que ela produza só o bem, e nunca o mal.

    É uma pergunta dificílima de responder. E, segundo Pereira, o processo para solucionar a questão é totalmente empírico. “É basicamente pôr no bicho e ver se forma alguma coisa. E o que estamos vendo é que, em muitos casos, nada de anormal aparece.”

    Para a pesquisadora brasileira, os primeiros testes clínicos com células-tronco embrionárias já estão próximos. “Tem uma empresa nos EUA que já entrou com um pedido para fazer”, diz. “Antigamente, eu costumava sempre responder a isso com, ah, em cinco a dez anos. Mas agora já acho que no ano que vem teremos o primeiro teste clínico com células-tronco embrionárias no mundo.”

    http://g1.globo.com/Noticias/Ciencia/0,,MUL779653-5603,00-CIENTISTAS+DA+USP+CRIAM+PRIMEIRAS+CELULASTRONCO+EMBRIONARIAS+BRASILEIRAS.html

  2. RFID: O que é?

    RFID, ou Identificação por Radiofreqüência, é uma tecnologia sem fio (wireless) destinada a coleta de dados. Tal qual o código de barras, o RFID faz parte do grupo de tecnologias de Identificação e Captura de Dados Automáticos. Seu surgimento remonta há várias décadas, mas o crescimento massivo de seu uso vem se percebendo nos últimos anos, em especial pelam redução do custo de seus componentes.
    O princípio de funcionamento da tecnologia RFID é muito simples, mas há uma série de complicações em sua aplicação, devido ao fato de não haver apenas um conjunto de elementos que seja possível responder à diversidade de necessidades. Um sistema RFID é composto por um transceptor que transmite uma onda de radiofreqüência, através de uma antena, para um transponder, ou mais conhecido por tag. O tag absorve a onda de RF e responde com algum dado. Ao transceptor é conectado um sistema computacional que gerencia as informações do sistema RFID.
    Há uma faixa enorme de tipos de tags disponíveis no mercado, que satisfazem às diversas necessidades de aplicações. Os tags são constituídos de diversas maneiras: passivo, alimentados por baterias, em diferentes freqüências, com antenas impressas, com antenas helicoidais, em etiquetas ou encapsulados, etc. A despeito dessa diversidade, o princípio de funcionamento é muito similar entre eles.
    A tecnologia RFID utiliza freqüências dentro da faixa de 50 KHz até 2,5 GHz. Os sistemas de RFID são distinguidos por 3 faixas: baixa, intermediária (média) e alta.
    Em termos de aplicação, os sistemas RFID podem ser agrupados em 4 categorias:
    • Sistemas EAS (Electronic Article Surveillance)
    • Sistemas Portáteis de Captura de Dados
    • Sistemas em Rede
    • Sistemas de Posicionamento
    O potencial de aplicação de sistemas RFID é enorme, tanto no setor da indústria, comercio e serviço onde hajam dados a serem coletados. As principais áreas de aplicação dos sistemas RFID que atualmente podem ser identificadas são:
    • Transporte e logística
    • Fabricação e processamento
    • Segurança
    Uma outra faixa enorme de aplicações está sendo desenvolvida como uso de sistemas de RFID, a saber:
    • Marcação de animal
    • Acompanhamento postal
    • Bagagem de aviões
    • Controle de acesso a veículos
    • Gerenciamento de catracas de estradas
    • Coleta de dados de medições de consumo de energia
    O desenvolvimento de novos produtos de RFID, a regulamentação e a redução de custos têm provocado o crescimento de novas aplicações em áreas até então ainda não exploradas.

    Fonte: http://imasters.uol.com.br/artigo/3731/tendencias/entendendo_um_pouco_sobre_rfid//imprimir/

  3. Mas o que é uma Smart Board? Esse equipamento nada mais é do que um projeto mais interativo, que inclusive aceita que o professor ou palestrante escreva na sua superfície com uma caneta especial. Então imagine a cena, você está fazendo uma apresentação ou ministrando aulas, usando uma apresentação em PowerPoint. Para alguns assuntos, você gostaria de destacar tópicos ou fazer anotações no quadro. Pois com uma Smart Board isso é possível, tudo de maneira eletrônica.

    Bem, acho que um vídeo ilustra melhor o conceito:


    fonte: http://www.colaborativo.org/blog/2007/09/20/informatica-na-educacao-quadro-interativo/

  4. Google lançou recentemente o Android, uma plataforma, um sistema operacional (como o Windows), para celulares.

    Por que? Por que???

    É fato que o mercado de computadores está em expansão, mas o atual mercado lucrativo é o de telefonia.

    E o Google, que já domina os mercados de busca online, vai dominar os celulares como?

    Primeiro de tudo, eles estão criando o Windows dos celulares. Em uma retrospectiva, a IBM tinha inovado, criando os computadores. A Microsoft criou um sistema operacional fácil e unificado para todos. O Google está fazendo o mesmo para os celulares (o que alguns já dizem ser o computador do futuro, com PPC, Palms e Smartphones substituindo o PC), da exata mesma forma que a Microsoft.

    Explicarei-me: A Microsoft permitia o desenvolvimento de aplicativos para sua plataforma, mas em última instância, por deter o código e outras informações privilegiadas, sempre conseguia desenvolver softwares superiores do que os dos terceiros, por exemplo Firefox e o Internet Explorer 7 (podem xingar, mas é a verdade). Comparemos com o que o Google faz na Internet: alguem desenvolve uma nova ferramenta, por exemplo um leitor de RSS, o Google vai e aprimora, por exemplo Bloglines e Google Reader.

    Em segundo lugar, os celulares tendem a ir online. Alguém duvida ou discorda dessa? Considerando esse fato e pensando que a plataforma foi criada pelo Google, advinha com que aplicações online os celulares vão se comunicar? Hmmmm Chutem Google!

    Terciariamente, o Google sabe o poder dos usuários. Vou citar vários exemplos, para que ninguém mais se esqueça que sempre existe alguem, em algum lugar do mundo, fazendo o que você faz, melhor que você (tudo é relativo!). Começando pelos jogos, meditemos sobre Half Life, um jogo da Valve, que além de ser excepcional na sua física, ficou milhares de vezes mais famoso por causa do Counter Strike, uma modificação feita pelos usuários. Que tal Warcraft III e o mapa Dota? Por último e mais importante exemplo, Facebook e as aplicações online criadas pelos usuários.

    O Google, que já domina todas as estatísticas e informações de quase todo o mundo, vai ter – provavelmente – mais uma fonte: sua rede Open. Open Social é o começo, com usuários criando aplicativos para sites em conjunto. Agora o Open Handset Alliance, que é em si, o Projeto Android.
    A HTC provavelmente será a primeira a desenvolver um celular gPhone com o Projeto Android, que se chamará HTC Dream. Abaixo, o provável protótipo da HTC.
    .
    .
    >> Na verdade já temos o primeiro celular com o sistema operacional da google e realmente é da HTC

    Fonte: Engadget, Veja Isso
    http://www.engadget.com/2007/11/05/googles-android-platform-and-the-open-handset-alliance-a-quick/
    http://www.vejaisso.com/2007/11/06/gphone-acabou-google-android-e-o-que-o-google-ganha-com-isso/

  5. Universidade desenvolve robô controlado por cérebro biológico

    Objetivo do robô é auxiliar pesquisadores a avaliarem como a memória se manifesta no cérebro e como este armazena dados.
    A Universidade de Reading revelou, nesta quinta-feira (14/08), um robô controlado por um cérebro biológico, composto por neurônios artificiais.

    A pesquisa será útil para avaliar como a memória se manifesta no cérebro e como o mesmo armazena informações. O objetivo principal é entender doenças e desordens cerebrais, como Mal de Alzheimer e de Parkinson, entre outros.
    O cérebro biológico do robô é composto de neurônios artificiais, posicionados em uma linha com 60 eletrodos, que colhem os sinais elétricos gerados pelas células.

    Esta ação movimenta o robô e, cada vez que ele se aproxima de um objeto, os sinais são enviados para estimular o cérebro. Em resposta, o cérebro direciona o movimento de suas rodas, evitando objetos.

    O robô se move sem a ajuda humana ou de um computador – o controle vem apenas de seu cérebro.

    Os cientistas estão trabalhando para que o robô aprenda a aplicar diferentes sinais cerebrais ao se movimentar em posições pré-definidas. Assim, será possível aprender como as memórias se manifestarão no cérebro quando o robô voltar a lugares conhecidos.
    http://idgnow.uol.com.br/computacao_pessoal/2008/08/14/universidade-desenvolve-robo-controlado-por-cerebro-biologico/

  6. Transmissão de Energia Eletrica Sem Fio

    A Intel esta desenvolvendo um novo sistema de recarga elétrica sem fios de aparelhos.
    A tecnologia é chamada Wireless Energy Resonant Link (WERL).
    Em demonstração no seu fórum anual de desenvolvedores em San Francisco, o CTO da Intel, Justin Rattner, transmitiu eletricidade para um abajur no palco, iluminando uma lâmpada de 60 watts, uma lampada com esta potencia puxa mais energia que um notebook comum!
    O teste foi feito a uma distancia de 60-90 centimetros do equipamento responssavel por emitir energia atravez de campos magneticos, ocorrendo uma pequena perda 25% da energia emitida!
    O trabalho está sendo desenvolvido em cima do WiTricity, projeto do físico Marin Sljacic, do Massachusetts Institute of Technology (MIT).

    Fischmann Rafael 29/08/2008 http://macmagazine.com.br/blog/2008/08/29/intel-desenvolve-sistema-sem-fio-para-recarga-de-aparelhos-werl/

  7. Telefonia por Internet (VoIP)

    De uns tempos para cá muitas empresas em todo o mundo estão conseguindo economizar – e muito – nas tarifas de ligações interurbanas e internacionais. Tudo graças a uma tecnologia chamada VoIP (Voz sobre IP), que começa a se tornar acessível também no Brasil. E não vai demorar muito para que essas quatro letras causem uma verdadeira revolução no modo de se pensar telefonia. Muitos já ousam afirmar até que o VoIP é a reinvenção da telefonia, tanto na forma de prestar o serviço, quanto de utilizá-lo.
    Como funciona o VoIP e que dados transmite?
    A plataforma VoIP transforma os sinais de voz (analógicos) em pacotes digitais para transmissão tanto na Internet quanto na Intranet. Estes pacotes são compactados para transmissão a um segundo portal, no qual eles serão novamente compactados, dessa vez em sinais de som analógicos, e enviados ao receptor.
    Como o VoIP processa uma chamada de voz?
    Abaixo, acompanhe um passo-a-passo de como se estabelece uma ligação telefônica pela tecnologia VoIP:
    1. O usuário, com um headset, ouve a sinalização que indica telefone fora do gancho para a parte da aplicação sinalizadora da VoIP no roteador. Esta emite um sinal de discagem e aguarda que o usuário tecle um número de telefone. Esses dígitos são acumulados e armazenados pela aplicação da sessão.
    2. O gateway compara estes dígitos acumulados com os números programados. Quando há uma coincidência, ele mapeia o número discado com o endereço IP do gateway de destino.
    3. Em seguida, a aplicação de sessão roda o protocolo de sessão H.245 sobre TCP, a fim de estabelecer um canal de transmissão e recepção para cada direção através da rede IP. Quando a ligação é atendida, é estabelecido, então, um fluxo RTP (Real-Time Transport Protocol, ou Protocolo de Transmissão em Tempo Real) sobre UDP (User Datagram Protocol, algo como Protocolo de Pacote de Dados do Usuário) entre o gateway de origem e o de destino.
    4. Os esquemas de compressão do codificador-decodificador (CODECs) são habilitados nas extremidades da conexão. A chamada, já em voz, prossegue utilizando o RTP/UDP/IP como pilha de protocolos.
    Nada impede que outras transmissões de dados ocorram simultaneamente à chamada.
    Sinais de andamento de chamada e outros indicativos que podem ser transportados dentro da banda cruzam o caminho da voz assim que um fluxo RTP for estabelecido.
    Após a ligação ser completada, é possível também enviar sinalizações dentro da banda como, por exemplo, sinais DTMF (freqüências de tons) para ativação de equipamentos como Unidade de Resposta Audível (URA). Quando qualquer das extremidades da chamada desligar, a sessão é encerrada, como em qualquer chamada de voz (ligação telefônica) convencional.

    O que você precisa para usar a comunicação VoIP, integrando Internet e telefonia?
    Nessa comunicação de voz, é necessário que o usuário tenha instalado em seu computador um software para transferência de dados, no caso a voz. Em seu primeiro estágio, a VoIP podia ser entendida como uma conversação telefônica entre dois usuários de uma rede privada usando conversão de voz para dados (exclusivamente em redes corporativas). Mais tarde esta tecnologia chegou ao seguinte conceito: uma conversação telefônica entre um usuário de Internet e um usuário da telefonia convencional, sem necessidade de acesso simultâneo. Agora, o que chega ao mercado doméstico é uma idéia muito mais completa e que promete resultados cada vez melhores: uma conversação telefônica entre um usuário Internet e um usuário da telefonia convencional, ambos utilizando apenas o telefone.

    Fonte: SANTOS, C.; Economize DDD e DDI. Compre VOIP.v.34, 2005. Disponível em: . Acesso em: 28 ago 2008.

  8. Virtualização de servidores

    Hoje em dia é um fato que custos de hardware estão cada vez menores. Segundo a famosa Lei de Moore, ainda válida, a cada 18 meses o poder de processamento de servidores e estações de trabalho dobra.
    Para quem está preocupado apenas em diminuir o tempo de resposta das aplicações parece que todos os seus problemas estão resolvidos. Bastaria acrescentar servidores ao seu datacenter e sentar para ouvir os elogios dos usuários. Bem, infelizmente nem tudo funciona assim.
    Atualmente, o investimento na aquisição de um servidor pode ser baixo, mas por trás de um (ou vários) equipamento barato precisamos de pessoal especializado (e caro) para realizar a manutenção e gerenciamento. Cada novo servidor adquirido implica em um acréscimo nos custos de administração do ambiente.
    Uma opção freqüentemente adotada para tentar resolver o problema é a consolidação de servidores. Para isso, instala-se em uma única máquina com alto poder de processamento, aplicações e serviços que estavam em servidores diferentes. O que a princípio deveria simplificar o ambiente pode ter o efeito contrário caso ocorram conflitos ou incompatibilidades de ambiente entre as aplicações. O que deveria simplificar e reduzir o custo de administração acaba piorando a situação. O que fazer?
    Um caminho para a solução desse problema é a chamada virtualização de servidores. Nesse ambiente é possível executar múltiplas instâncias de Sistemas Operacionais (iguais ou completamente diferentes) no mesmo hardware. Assim, cada Sistema “acha” que tem o controle completo do hardware. Simplifica a administração e diminui o número de equipamentos a administrar.
    O mais famoso ambiente para virtualização é o VMWare (www.vmware.com).

    Vejo que hoje, esta tecnologia é uma das mais promissoras do modo de tratamento da informação e mais uma das defensoras do TI verde, que muitas empresas querem adotar pela visão da preservação de recursos ambientais (é uma pena que não é a maioria).

    Referência:
    SUDRÉ, Gilberto. Virtualização de servidores. iMasters, 2005. Disponível em: . Acesso em: 21 ago. 2008, 20:39

  9. Tecnologia RFID

    RFID é a sigla para Radio Frequency Identification, ou Identificação por Radiofreqüência. Trata-se de uma tecnologia em ascensão que foi desenvolvida pelo Massachussetts Institute of Technology (MIT), nos EUA, e que utiliza ondas eletromagnéticas para acessar dados armazenados em um microchip.

    O RFID pode ser usado para identificar praticamente qualquer coisa. Como um CPF ou RG, a parte de identificação do RFID é composta por um conjunto de números. Cada chip tem um código eletrônico de produto que é único (também conhecido como EPC – Electronic Product Code) e que pode ser consultado por meio de antenas de radiofreqüência. Ou seja, quando a etiqueta é colada em uma lata de refrigerante, uma televisão, um cachorro ou uma pessoa, a etiqueta, ou tag, transmite a informação para antenas com freqüência compatível e essas antenas ativam o chip, eletronicamente, identificando o produto.

    A reportagem na qual analisei da revista Computer World trata da utilidade de implementação do RFID para controle de estoque.

    “Varejo aposta na Tecnologia” é o titulo da reportagem, onde os varejistas começam a ver na tecnologia soluções para redução de custos.
    Hoje em dia, com a necessidade de se ter estoque beirando o nível zero para se ter preços competitivos o RFID pode ser uma saída eficaz para isso.

    Trás também a informação que grandes fornecedores de TI preparam-se, por meio de aquisições de empresas especializadas para atender a este mercado, pois hoje em dia o mercado é atendido apenas por software house de nichos.

    O mais interessante da tecnologia é saber que se tem o controle total da mercadoria que entra, que sai, que possivelmente foi furtada ou extraviada.

    Para se ter uma idéia, segundo a Frost & Sullivan, o setor vai movimentar 2,9 bilhões de dólares até 2012.

    Revista Computer World – Varejo aposta na Tecnologia.

    UOL WNews – Tecnologia sem preocupação. Serviço de Referência. Catálogos de Universidades. Apresenta endereços de Universidades nacionais e estrangeiras. Disponível em: . Acesso em: 30 de setembro de 2008.

  10. Tecnologia 3G

    Publicada em 18/12/2007 no site O Globo Online

    RIO – A tecnologia 3G é a usada pela terceira geração de telefonia móvel. A primeira foi a dos celulares analógicos e a segunda dos digitais.

    Como proporciona uma transmissão de dados mais veloz, a tecnologia 3G torna possível às empresas oferecer pacotes de serviços complexos a custos acessíveis. Mais de 260 operadoras no mundo já fazem isso.

    Entre os serviços prestados estão internet banda larga, TV no celular, jogos tridimensionais e download de músicas e vídeos com mais rapidez.

    Enquanto com a tecnologia de segunda geração de telefonia móvel (2G) o tempo para baixar uma música pode chegar a 18 minutos, com a 3G é de cerca de um minuto.

    Hoje, já há operadoras oferecendo serviços 3G no Brasil. Entre eles está a videochamada, com transmissão de áudio e imagem simultânea.

    Em breve, haverá IPTV, jogos multiplayer em tempo real e outros serviços que demandam maiores velocidades.

    Entre as novidades promissoras estão ainda os serviços de localização, bastante populares na Ásia, que permitem encontrar restaurantes e shopping centers, por exemplo. No Japão, 3,5 milhões de celulares com TV foram vendidos em um ano.

    Meus comentários: Sem dúvida esta é uma tecnologia que este se tornando muito popular entre os usuários de celular principalmente e com certeza vem para aumentar ainda mais a quantidade de usuarios na internet gerando uma contribuicao ainda maior tanto em pesquisas como projetos da aerea.

  11. iPhone Tecnologia 3G

    Com rápida tecnologia 3G para ambientes móveis, Mapas com GPS, suporte a funções corporativas como Microsoft Exchange e o novo AppStore, o iPhone 3G coloca ainda mais funcionalidades na palma da sua mão. E assim como o primeiro iPhone, ele combina três produtos em um: um telefone revolucionário, iPod widescreen e um avançado dispositivo de Internet com recursos sofisticados de e-mail e navegação. O iPhone 3G mais uma vez redefine o que um celular pode ser capaz de fazer.

    Como funciona o iPhone na banda 3G?

    A tecnologia 3G utiliza um protocolo chamado HSDPA (High-Speed Downlink Packet Access) para proporcionar transferência rápida de dados por redes UMTS (Universal Mobile Telecommunications System). Gráficos, anexos de e-mail, vídeos, e páginas da internet são carregados até duas vezes mais rápido que com as redes 3G e que as redes 2G EDGE1. Como o iPhone 3G alterna entre as redes EDGE, 3G mais rápidas e até redes Wi-Fi ainda mais rápidas, você sempre navega na maior velocidade disponível.
    O iPhone já permite executar várias tarefas com mobilidade. Mas a tecnologia 3G permite realizar várias tarefas em ainda mais lugares, sem necessidade de conexão à rede Wi-Fi. Já que as redes 3G permitem efetuar downloads de voz e dados simultaneamente, você pode falar pelo telefone e ao mesmo tempo navegar na internet, conferir e-mails, ou procurar nos Mapas. Tudo isso a partir da sua rede celular 3G.
    Proporciona acesso através das tecnologias EDGE, 3G, Wi-Fi, Bluetooth e GPS em um aparelho compacto, usando apenas duas antenas. A engenharia inteligente do iPhone integra estas duas antenas nos lugares mais inesperados: no aro metálico em torno da câmera, no conector de áudio, na moldura de metal da tela, e dentro do próprio circuito impresso do iPhone. E a tecnologia inteligente de gerenciamento de energia do iPhone permite até cinco horas de conversação a través de redes 3G.2 é um dos melhores do mercado.

  12. IPHONE 3G

    Conforme Moreira (2008) o preço I-Phone da Aplle vendido pelas operadoras Claro e Vivo (que lançaram o celular no dia 26/09/2008) é o mais caro da América do Sul. O preço do mesmo vendido pela operadora Claro no plano pós-pago de 8GB é de R$ 1 239,00 e no plano pré pago o modelo de 16GB fica em R$ 2 599,00. Já pela Vivo ele é oferecido no plano pós-pago de 8 GB é de R$ 899,00 e com o plano pré-pago no modelo de 16BG chega em R$ 2 199,00. A diferença do preço no comparativo chega a R$ 2 361,00 em relação ao Equador, que é o país da América Latina com preço do I-Phone mais barato, sendo que o mesmo oferece o modelo 8GB gratuitamente.

    Referência:
    DANIELA MOREIRA. IPhone 3G brasileiro é o mais caro da América do Sul. Disponível em:. Acesso em: 30 set. 2008.

  13. Blu-ray, é um formato de disco óptico da nova geração de 12 cm de diâmetro (igual ao CD e ao DVD) para vídeo de alta definição e armazenamento de dados de alta densidade.

    É o sucessor do DVD e capaz de armazenar filmes até de até 4 horas sem perdas. Requer obviamente uma TV de alta definição (Plasma ou LCD) para exibir todo seu potencial e justificar a troca do DVD. Sua capacidade varia de 25 (camada simples) a 50 (camada dupla) Gigabytes.

    Blu-ray obteve o seu nome a partir da cor azul do raio laser (“blue ray” em inglês significa “raio azul”). A letra “e” da palavra original “blue” foi eliminada porque, em alguns países, não se pode registrar, para um nome comercial.

  14. O Novo Formato dos Data Centers

    Uma transformação na criação dos data centers está em andamento e terá um forte impacto na produtividade de TI.
    Os novos sistemas serão baseados em containeres e outras tecnologias modulares. Os defensores do modelo afirmam que a substituição de racks de servidores convencionais por sistemas embutidos em containeres, que podem ser removidos facilmente, tornará a montagem mais simples e aumentará a potência.
    A Microsoft é uma das pioneiras no novo movimento. Em um subúrbio na cidade de Chicago a empresa está criando um data center que acomodará 220 containeres.
    Em contrapartida, esta revolução pode trazer alguns prejuízos na área de TI, como por exemplo um decréscimo no número de profissionais dentro dos data centers, visto que os serviços on-line diminuirão a necessidade de TI interna.

    Referência:

    – Revista ComputerWorld. Número 496. Ano XIII. Páginas 34, 36.

  15. Tecnologia – OLED

    Segundo site info.abril: O aparelho será a primeira TV do mundo baseada na tecnologia OLED (diodo orgânico emissor de luz) e seu lançamento é uma tentativa da companhia em lutar por um mercado de 82 bilhões de dólares até agora dominado pelos modelos com telas de cristal líquido (LCD) e plasma.
    Os painéis OLED têm alta eficiência no consumo de energia e permitem a produção de televisores finos e leves. As imagens que oferecem são nítidas e um dos pontos fortes da tecnologia está na exibição de imagens em movimento rápido, o que a torna especialmente adaptada a eventos esportivos e filmes de ação. Mas o tamanho vem se provando uma limitação, até o momento.
    Oferecer um produto inovador como forma de promover sua marca é importante para a Sony, cuja posição de liderança no mercado de players portáteis de música foi há muito perdida para o iPod, da Apple.
    O grupo de eletrônica também vem enfrentando dificuldades no mercado de videogames, que dominou por uma década a partir da metade dos anos de 1990, com o console PlayStation 3 apresentando larga desvantagem de vendas em relação ao Nintendo Wii.
    “Algumas pessoas afirmam que produtos inovadores surgem lentamente na Sony, apesar da força da tecnologia do grupo”, disse Ryoji Chubachi, presidente da empresa, em entrevista coletiva em sua sede, em Tóquio.
    “Eu desejo que o primeiro televisor OLED do mundo seja um símbolo da retomada da competência tecnológica da Sony. Quero que ele seja a bandeira sob a qual marcharemos para reverter a situação da companhia”, afirmou.
    A Sony, segunda maior fabricante de televisores com telas de cristal líquido (LCD), atrás apenas da Samsung Electronics, espera que o televisor OLED de 11 polegadas, com míseros 3 milímetros de espessura, seja vendido por 200 mil ienes (1,74 mil dólares), preço de varejo quase tão alto quanto o de alguns de seus modelos LCD de 40 polegadas.

    Disponível em: http://info.abril.com.br/aberto/infonews/102007/01102007-8.shl, acesso em: 20 de setembro de 2008

  16. Função
    Apesar de não ser uma tecnologia nova, o uso de ferramentas de apoio a tomada de decisão está em ascensão ultimamente, e o olap vem como uma das soluções para BI.
    O OLAP tem como principal finalidade trazer dados de forma macro, visando gerar informações que possam contribuir a nível estratégico as tomadas de decisões. Em sua grande maioria são relatórios analíticos sobre um determinado domínio, ou simplesmente uma interface na qual o usuário final possa interagir diretamente com as medidas e dimensões, gerando a informação em tempo real.

    Componentes do OLAP

    A estrutura do olap é baseada em um cubo, ou seja, possui dimensões. Essa semelhança se deve ao fato de como mensurar o tamanho de um cubo, aonde multiplicando – se as dimensões obtemos o seu tamanho (medidas do cubo elevado a suas dimensões, exemplo 5³). Porém, um cubo de decisão não se limita a apenas 3 medidas, mas sim de um numero infinito de possíveis medidas que uma determinada regra de negócio possa implementar. Bem como as medias, em um mesmo cubo posso ter várias medidas nas quais é possível se obervar de diferentes perspectivas, trabalhando com as dimensões. Outro componente muito importante um OLAP é a dimensão TEMPO. Esta dimensão deve estar presente para que seja possível montar a estrutura de um cubo de decisão. É através dela que é delimitado o período que se deve ser analisado, podendo abranger anos, semestres, trimestres, bimestres, meses, semanas, dias, horas, minutos, segundo, etc.. Tudo vai depender do que a regra de negócio demandar.
    As medidas são valores numéricos, quantitativos, e são armazenadas em uma tabela de fato. As dimensões são o que chamamos de “dados sobre dados”, são as diversas peças que compõem o fato em si.

    Infra-estrutura

    Este tipo de aplicação se baseia em um Datawherehause, que tem como princípio a integridade total dos dados. Os dados armazenados no banco não são editados ou apagados, afim de se manter o histórico das informações. Justamente pelo fato de poder “olha para o retrovisor” que este tipo de estrutura demanda um enorme espaço em disco. Geralmente as estruturas que manipulam o OLAP são servidores com alta capacidade de armazenamento de dados e uma boa capacidade de processamento.O processamento se deve ao fato de ter que trabalhar com uma massa gigantesca de dados e infinitas possibilidades de cruzamento entre eles. Imagine que temos uma tabela do banco de dados que possua em torno de um milhão de registros, e que esses registros se tratam de lançamentos feitos por um empresa de grande porte. Digamos que um dos acionistas desta empresa precise saber para quais clientes se destinaram a maior parte destes lançamentos, porém dentro de um determinado período de tempo, por região, por categoria de produto e por tipo de cliente. Aqui temos uma fato ( valor do lançamento ), e quatro dimensões (tempo, região, categoria do produto e tipo de cliente), a geração destes dados traria um relatório com o tamanho de um milhão elevado a quarta potência, ou seja uma massa muito grande de dados para ser trabalhada. Deve-se escolher com muita cautela aonde esta aplicação irá rodar.

    Limitações
    Existe uma limitação muito grande quanto ao uso do OLAP para a geração de relatórios operacionais, em certas circunstâncias se torna impossível detalhar os relatórios a este nível. Como ele trabalha com dados acumulados pelas dimensões ele acaba tendo limitações para chegar a certos níveis de detalhamento. OLAP consegue trazer informações de forma macro para o auxílio na tomada de decisões, diferentemente de um relatório operacional que trata de dados do dia a dia.

    JACOBSON, Reed; MINSNER, Stacia; Hitachi Consulting. Microsoft SQL Server 2005 Analysis Services. Primeira edição. Bookman, 2007. 351 pág.

  17. Processadores Mistos(CPU + GPU)

    Devido a grande evolução dos processadores com vários núcleos as fabricantes estão desenvolvendo uma nova tecnologia que pretende unificar as tecnologias que estão empregadas nas GPU’s com as CPU’s atuais.

    Um modelo de processador da AMD que será lançado no segundo semestre de 2009 terá de 4 núcleos, 2 destes núcleos continuam com as funções atuais, porém os outros 2 núcleos seriam optimizados para funções gráficas(teriam a mesma função de uma placa de vídeo atual).

    A AMD denominou esta nova família de processadores como Fusion. Intel também irá lançar uma família destes processadores chamada de Larrabee.

    Principais benefícios desta tecnologia:
    * unificação do processamento em um único chip;
    * redução de consumo de energia;
    * redução de emissão de calor;
    * irá suportar DirectX 10+

    CPU – central processor unit
    GPU – graphics processor unit

    Disponível em: http://www.dicasparacomputador.com/processadores-mistos-amd-fusion-e-intel-larrabee-cpugpu-gpgpu, acesso em: 30 de setembro de 2008

  18. Infra-estrutura da Internet

    De acordo com um estudo de uma empresa de análise, se a atual infra-estrutura não receber investimentos superiores a 137 bilhões de dólares, o uso corporativo e doméstico da internet poderá levar a um esgotamento da rede em 2010.
    O motivo principal é o constante crescimento de conteúdos audiovisuais. A demanda por aplicações web e transferências de arquivos vai acelerar muito até 2010 e exigirá muito mais capacidade da rede.

    O governo dos EUA vem tentando reorganizar o sistema de gestão da
    infra-estrutura Internet a 12 anos, pois a internet é descentralizada, razoavelmente horizontal e, para quem pode pagar, supostamente livre de barreiras à entrada. Apesar da maior parte de sua infra-estrutura de rede está sob comando do governo americano através de um consórcio de entidades.

    Uma breve comparação foi o que aconteceu com Bill Gates, quando criou o sistema operacional MSDOS, nunca imaginou que computadores pessoais precisariam de mais de 640 KB de memória.
    Os pioneiros da Internet não se preocupavam com quem receberia blocos de números IP, já que havia tantos disponíveis.
    Hoje em dia há aproximadamente 4,3 bilhões de IP’s, e 2,4 bilhões ainda não estão em uso. Mas a crescente expansão do uso de dispositivos pessoais e domésticos conectáveis à Internet fez surgir a preocupação com uma possível escassez de números IP. Isso levou a criação de um novo padrão, chamado Ipv6, muito mais amplo, porém a transformação de toda a rede exigiria investimentos de dezenas de bilhões de dólares, já que todos os pontos de controle e roteamento de tráfego da rede teriam de ser substituídos e/ou modernizados.

    Curiosidade: em 2008 a internet vai criar 161 exabytes de novos dados. 1 exabyte equivale a 50mil anos de vídeo com qualidade de DVD armazenados. 1 exabyte equivale a 1.073.741.824 gigabyte.

    Referência:
    AFONSO, C.A. Internet: quem governa a infra-estrutura? . 2002.

  19. Gartner afirma isso com base na complexidade das suites ERP’s, onde as aplicações de SaaS
    estavam restritas a um domínio, como automação da força de vendas ou a um único processo de negócios como folha de pagamentos. A adoção deste modelo esta ligada com a falta de recursos financeiros e de pessoas para TI em várias organizações, fazendo com que se interessem por SaaS para que a equipe de TI se concentre em processos mais estratégicos.
    Alguns entraves apontados para a adoção de ERP como serviço são relacionados ao custo de propriedade (TOC) e segurança (dados financeiros e preocupações com privacidade).
    A previsão para o mercado, segundo Gartner é de apenas 16,7% para pequenas e médias empresas. O que impede que o ERP em SaaS seja uma opção viável em curto prazo é a falta de fornecedor confiável e a complexidade das suites, mesmo com o preço inicial menor, os custos “escondidos” precisam de atenção.

    Referência:
    IDG NEWS SERVICE. Oferta de ERP em software como serviço é imatura, diz Gartner. COMPUTERWORLD, EUA. 21 de agosto de 2008 – 07h00. Disponível em: Acesso em: 02 outubro 2008.

  20. RFID: O que é?
    RFID, ou Identificação por Radiofreqüência, é uma tecnologia sem fio (wireless) destinada à coleta de dados. Tal qual como o código de barras, o RFID faz parte do grupo de tecnologias de Identificação e Captura de Dados Automáticos. Seu surgimento remonta há várias décadas, mas o crescimento massivo de seu uso vem se percebendo nos últimos anos, em especial pelam redução do custo de seus componentes.
    O princípio de funcionamento da tecnologia RFID é muito simples, mas há uma série de complicações em sua aplicação, devido ao fato de não haver apenas um conjunto de elementos que seja possível responder à diversidade de necessidades. Um sistema RFID é composto por um transceptor que transmite uma onda de radiofreqüência, através de uma antena, para um transponder, ou mais conhecido por tag. O tag absorve a onda de RF e responde com algum dado. Ao transceptor é conectado um sistema computacional que gerencia as informações do sistema RFID.
    A tecnologia RFID utiliza freqüências dentro da faixa de 50 KHz até 2,5 GHz. Os sistemas de RFID são distinguidos por 3 faixas: baixa, intermediária (média) e alta.
    Em termos de aplicação, os sistemas RFID podem ser agrupados em 4 categorias:
    • Sistemas EAS (Electronic Article Surveillance)
    • Sistemas Portáteis de Captura de Dados
    • Sistemas em Rede
    • Sistemas de Posicionamento
    O potencial de aplicação de sistemas RFID é enorme, tanto no setor da indústria, comercio e serviço onde hajam dados a serem coletados. As principais áreas de aplicação dos sistemas RFID que atualmente podem ser identificadas são:
    • Transporte e logística
    • Fabricação e processamento
    • Segurança
    Outra faixa enorme de aplicações está sendo desenvolvida como uso de sistemas de RFID, a saber:
    • Marcação de animal
    • Acompanhamento postal
    • Bagagem de aviões
    • Controle de acesso a veículos
    • Gerenciamento de catracas de estradas
    • Coleta de dados de medições de consumo de energia
    O desenvolvimento de novos produtos de RFID, a regulamentação e a redução de custos têm provocado o crescimento de novas aplicações em áreas até então ainda não exploradas.

    Fonte: http://imasters.uol.com.br/artigo/3731/tendencias/entendendo_um_pouco_sobre_rfid//imprimir/

  21. Tipos de Informação:

    1) Científica.
    Título: Identificação por Radiofreqüência: Aplicações e Vulnerabilidades da Tecnologia RFID.
    Site: http://www.foa.org.br/pesquisa/caderno/edicao/02/18.pdf

    2) Tecnológica.
    Título: O que é RFID.
    Site: http://imasters.uol.com.br/artigo/3731/tendencias/entendendo_um_pouco_sobre_rfid//imprimir/

    3) Informativa.
    Título: NEC do Brasil demonstra aplicação com tecnologia RFID na TELEXPO 2005
    Site: http://www.nec.com.br/site/content/news/press_detalhe.asp?id=170

    4) Empresarial.
    Título: Chips dentro do corpo substituirão cartões de crédito.
    Site: http://www.fimdostempos.net/marcadabesta4.html

    5) Pessoal.
    Título: Toma e cai 2008.
    Site: http://tomaecai.blogspot.com/

  22. Interface Acionada por Gestos

    Pesquisadores da Universidade Bem-Gurion, desenvolveram uma interface para computador controlada a distância somente por gestos, batizado de Gestix. Para quem assistiu ao filme Minority Report, a tecnologia desenvolvida é bem semelhante, na ficção os personagens usavam uma luva especial que controlava todos os comandos em uma tela projetada, e agora virou realidade com este invento.

    Neste caso, o invento foi aplicado em um hospital, conforme descreve a matéria publicada no site http://www.inovacaotecnologica.com.br, “Os médicos podem manipular as imagens digitais, fazendo-as girar e ampliando determinadas áreas ou selecionando novas imagens, apenas com gestos feitos no ar, sem necessidade de qualquer contato físico com o equipamento”.

    Segundo a matéria, ajudará muito em se tratando de esterilização de equipamentos, pois não há contato algum, já os tradicionais mouses e teclados não são adequados nesse quesito, e podem ser canais de disseminação de infecções.

    Referências:
    WACHS, Juan P.. A Gesture-based Tool for Sterile Browsing of Radiology Images. Journal of the American Medical Informatics Association, June 2008. Disponível em: http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=medicos-ganham-interface-a-la-minority-report&id=010150080619. Acesso em: 18 ago. 2008.

  23. Um BlackBerry mais conectado

    Foi lançado pela RIM o primeiro BlackBerry com suporte a redes 3G. Opera em três freqüências. É o primeiro telemóvel a suportar redes HSDPA, e integrar Wifi e GPS.
    Segundo Arar(2008), o aparelho BlackBerry Bold 9000 é o mais conectado, o mais fino e o mais poderoso da série até o momento. Possui Wi-Fi nos padrões 802.11a/b/g, Bluetooth estéreo e GPS, o Bold é um forte concorrente ao iPhone, da Apple. Com processador StrongArm, de 624 MHz, o Bold tem a CPU mais potente da família BlackBerry. A capacidade extra permite ao aparelho lidar com vídeos na tela de 480 x 320 pixels e mais de 65 mil cores
    Jarimba (2008) afirma que a visualização de páginas HTML é praticamente igual a de um computador, apenas redimensionadas ao tamanho do ecrã.

    Fonte:

    JARIMBA. BlackBerry Bold (aka 9000). Disponível em:. Acesso em: 01 out. 2008.

    ARAR,Yardena. RIM lança primeiro BlackBerry 3G, rival do iPhone. Disponível em:. Acesso em: 01 out. 2008.

  24. COMPUTADOR QUÂNTICO

    Os nossos pcs atuais tem como menor unidade de dado o famoso BIT. O bit, como todos sabemos (ou não), só assume 2 valores, só pode estar em um dos dois estados possíveis, seria mais ou menos como
    falamos informalmente, que o bit pode ser 0 ou 1, ou então sim ou não, um valor de cada vez, porém, o
    futuro esta próximo, a quântica vem com a idéia de que não haverá mais somente 1 estado de cada vez,
    mas sim, de que poderá assumir os dois estados ao mesmo tempo, imaginemos que há 2 portas, e como
    somos hoje, poderíamos entrar somente em uma, se fossemos “quânticos”, poderíamos nos dividir e entrar nas 2 ao mesmo tempo, e se houvessem mais 2 portas após cada porta inicial, poderiamos nos dividir novamente e assim por diante..
    O que acontece, é que em um pc quântico, não temos transistores, e sim átomos (daí o “quântico”) e
    ao invés de bits temos bits quânticos, ou qubits.
    Um processador quântico tem capacidade exponencial muito maior do que um que temos atualmente, já que dois qubits correspondem a 4 bits, 3 qubits correspondem a 8 bits e 5 qubits correspondem a 32 bits. 10 qubits seriam suficientes para 1024 bits, enquanto 20 correspondem a mais de um milhão.

    Ainda esta longe da realidade, mas ja há alguns “protótipos” prontos e sendo testados.
    só há um problema, como construir um pc quantico? o que fazer para conseguir um isolamento perfeito, para não haver choques nem alteração de campos magnéticos? Pode demorar muito tempo, mas vem-se investindo muito nessa idéia, com a itenção de fazer o quântico substituir o silício.

    Referências:
    Entenda a computação quântica. INFO Online. Disponível em: 02/2007. Acesso em: 01/10/2008

    Mais um passo rumo ao computador quântico. Inivação Tecnológica. Disponível em: . Acesso em: 01/10/2008

    Computação quântica. Wikipédia. Disponível em: . Acesso em: 01/10/2008

  25. Recentemente a Google lançou um novo produto, o sistema operacional (SO) Android destinado à Celulares, ou melhor dizendo seu foco são os PDA’s (Personal digital assistants).
    O Lançamento deste novo sistema operacional, causou um alvoroço no mercado de SO’s destinado à PDA’s, que atualmente tem como “dominadores” do mercado Windows (Mobile e CE), Symbiam OS e PalmOS.
    O novo SO entra no mercado sendo considerado, pelos internautas, a salvação do ramo, por ser totalmente OpenSource e principalmente por ter como Mantenedor o GOOGLE!
    E com isso o que temos a perguntar é, o que o Google ganha com isso? Porque entrar neste ramo?
    É fato que o mercado de computadores está em expansão, mas o atual mercado lucrativo é o de telefonia, vide a derrota na colocação da Forbes do Bill Gates (Empresário do ramo de tecnologia de computadores) pelo Carlos Slim (Empresário do ramo de telefonia).

    Acredita-se que o google irá dominar o mercado de celulares, da mesma forma que já faz com os mercados de busca online.
    Primeiro de tudo, eles estão criando o Windows dos celulares. Aparentemente usando a mesma estratégica, a Microsoft permitia o desenvolvimento de aplicativos para sua plataforma, mas em última instância, por deter o código e outras informações privilegiadas, sempre conseguia desenvolver softwares superiores do que os dos terceiros, por exemplo Firefox e o Internet Explorer 7. Comparando com o que o Google faz na Internet: alguém desenvolve uma nova ferramenta, por exemplo um leitor de RSS, o Google vai e aprimora, por exemplo Bloglines e Google Reader.

    Em segundo lugar, os celulares tendem a ir online. Alguém duvida ou discorda dessa? Considerando esse fato e pensando que a plataforma foi criada pelo Google, advinha com que aplicações online os celulares vão se comunicar? Chutem Google!
    Terceiro, o Google sabe o poder dos usuários. Vou citar vários exemplos, para que ninguém mais se esqueça que sempre existe alguém, em algum lugar do mundo, fazendo o que você faz ou até mesmo melhor que você.

    O Google, que já domina todas as estatísticas e informações de quase todo o mundo, vai ter – provavelmente – mais uma fonte: sua rede Open. Open Social é o começo, com usuários criando aplicativos para sites em conjunto. Agora o Open Handset Alliance, que é em si, o Projeto Android.
    As empresas que vão compor a Open Handset Alliance (OHA) serão: China Mobile, KDDI, NTT DoCoMo, Sprint Nextel, Telecom Italia, Telefonica, and T-Mobile.
    A lista de desenvolvedores de celulares que irão criar celulares usando o Projeto Android são:HTC, LG, e Samsung, Motorolla
    Grandes exceções a lista acima são: Nokia, Apple, Palm e Microsoft.
    A HTC foi a primeira a desenvolver um celular gPhone com o Projeto Android, e fazendo muito sucesso!

    Veiga, Felipe. Google Android e o que o Google ganha com isso? Disponível em: http://www.vejaisso.com/2007/11/06/gphone-acabou-google-android-e-o-que-o-google-ganha-com-isso/ . Acesso em: 2 de outubro de 2008.

  26. O que é WEB 2.0
    Naturalmente o leitor já ouviu falar da Web 2.0. O termo esta cada vez mais em voga, apesar de ter uma significancia bastante ampla, e muitas vezes um pouco nebulosa. Quanto mais divulgada e popular é a expressão, mais os limites de sua definição ficam indeterminados. Assim, as linhas abaixo procuram definir uma síntese do que, ao menos originalmente, se trata a já famosa Web 2.0.
    O termo Web 2.0 se refere a uma suposta segunda geração de serviços de internet. Como toda forma de classificação histórica, não podemos dizer exatamente quando termina ou começa este período cronologicamente. Mas a observação destes padrões de comportamento na rede pode ser saudável do momento em que colabora com a organização de idéias e conceitos em uma indústria nova e particularmente complexa por sofrer agressivas mutações — justamente por estar ainda em sua fase embrionária.
    A expressão Web 2.0 foi primeiramente cunhada pela empresa O’Reilly Media, e desdobrou-se em uma séria de conferências e livros atingindo grande popularidade nas comunidades de desenvolvimento web. Uma observação de padrões em comum de negócio e tecnologia em uma variedade de projetos web que estão surgindo levou a dita cuja classificação “Web 2.0”. Abaixo, uma síntese dos principais padrões que são considerados como parte do grupo de tendências desta segunda geração web.
    A web como platafoma
    Sites deixam de ter uma caracteristica estática para se tornarem verdadeiros aplicativos no servidor. As funcionalidades dos sites são muito mais poderosas, lembrando a sofisticação de softwares que rodam no desktop de seu PC. Certamente hoje é mais complexo (e na maioria das vezes mais custoso) desenvolver um serviço web competitivo do que há alguns anos.
    Estes “sites aplicativos” tem também uma integração mais eficiente com a interface no cliente (browser) – que passa a ser mais poderosa com protocolos como o AJAX, que podem gerar uma usabilidade mais intuitiva e que resembla as interfaces escritas em código de baixo nível ( C++ e afins ).
    Beta eterno
    Tradicionalmente sites e aplicativos evoluiam com lançamento de versões 1.0, 2.0, 3.0 etc. Software é um buraco sem fundo, ou seja, nunca chegaremos a versão “final”. No mais, pelo fato do aplicativo estar em rede, o feedback de usuários e constante teste de funcionalidades torna-se um processo sem necessariamente uma interrupção por versões. Assim, sites/aplicativos ficam em “beta eterno”, denotando uma evolução sem fim. Apesar de pelo ponto de vista tecnológico o beta eterno fazer sentido, do ponto de vista de marketing o conceito é questionável já que o consumidor precisa de uma percepção clara de valor agregado na evolução do produto — principalmente para justificar usar mais ou mesmo gastar mais neste produto. Assim, alguma forma de empacotamento de fases na evolução do produto deverá continuar sendo necessária, mesmo que seja puramente perceptual — através de branding, por exemplo.
    Redes sociais
    Recentemente houve uma explosão da audiência em sites que formam e catalisam comunidades, tais como Orkut e My Space, dentre outros. Na verdade, estas redes de pessoas sempre existiram desde os primórdios da internet (BBS, chat, fóruns etc.). O que aconteceu foi uma aceleração recente do número de usuários destas comunidades devido a maior riqueza de conceito e sofisticação tecnológica dos “sites aplicativos”, somados a um aumento da base instalada de banda larga.
    Flexibilidade no conteúdo
    O conteúdo passa a ser dinâmico e sua publicação muito mais flexível, tanto por editores profissionais como pelos proprios usuários. Ferramentas de publicação multi-plataforma (PC, celular, PDAs, IPTV) geram poder e eficiência jornalistica à sites de notícias, por exemplo. Ao mesmo tempo, o próprio usuário passa a gerar conteúdo (ex. YouTube), classificá-lo e mesmo parcialmente editá-lo usando formatos como RSS, ou Really Simple Syndication (ex. Netvibes). As “Wikis” são talvez a forma mais extrema de edição colaborativa, onde qualquer pessoa teoricamente qualificada pode melhorar a qualidade de determinado conteúdo (ex. Wikipedia).
    Tags
    Tradicionalmente o conteúdo era classificado para o usuário, ou mesmo pelo próprio usuário em categorias pré-definidas. As Tags geraram uma taxonomia “invertida”, onde conteúdos se auto-classificam em categorias definidas (ex. del.icio.us).
    Percepção de valor econômico
    Talvez a mais importante função do termo Web 2.0 tenha sido a de sinalizar o início de uma nova e promissora fase na web, que vinha sob visão um tanto pessimista do mercado após o estouro da bolha especulativa no começo do século.
    Durante a “bolha”, forças do mercado fizeram acreditar que a perda do timing de entrada na nova economia seria um problema sério a médio prazo para corporações já estabelecidas. Assim, apesar da nítida super-valorização no preço das empresas que representavam a dita nova economia, muitas destas foram adquiridas pois acreditava-se que o custo de entrada seria compensado através de um ingresso rápido em um mercado em formação, e irreversível a longo prazo. Com uma estratégia agressiva de aquisições e venda rápida, alguns bancos ( especialmente Wall Street) lucraram significativamente com participações principalmente em emissões primárias (IPOs). Com o fim deste fenômeno cognitivo, gerou-se um sentimento pessimista no mercado quanto a web.
    O fato é que a web nunca parou de evoluir, apenas agora com um filtro seletivo de modelos de negócio muito mais realista. O IPO do Google em 2004 talvez tenha sido o marco para a entrada nesta nova fase de otimismo pragmático do mercado em relação a web. O termo Web 2.0 certamente ajudou a consolidar esta nova percepção de valor da internet, agora com modelos de negócio apresentando retornos reais. Ao mesmo tempo, uma integração da internet no modus operandi das corporações “tradicionais”, gerou novos e vitais canais de geração de receita, redução de custos ou mesmo formação de um CRM inteligente. Tudo isso denota esta segunda geração da internet, que esperamos seja apenas uma das muitas outras gerações promissoras que virão pela frente. [Webinsider]
    Fonte: http://webinsider.uol.com.br/index.php/2006/10/30/o-que-e-web-20/

    O Boticário 2.0

    Eles utilizaram o conceito de Web 2.0 para fazer o portal corporativo desenvolvido com o objetivo de democratizar interna e externamente o acesso a informações.
    O objetivo da empresa foi atender as necessidades especificas de negocio como: maior integração de conteúdos, base tecnológica para a estruturação e gestão de conhecimento, ponto de acesso único a aplicativos, unificação de logins, conceito de portal de serviços, ampliação do canal de comunicação com os colaboradores, informações executivas para gestão dos processos de negocio e para tomada de decisão.
    O portal foi projetado para ser a interface padrão dos colaboradores do Boticário, direcionando e organizando a partir dele todos os acessos ao sistema aplicativo e informações.
    Todos os usuários através de uma senha podem enviar conteúdos e até mesmo publicar os mesmos.
    Alem das funcionalidades a ferramenta também tem serviços de e-mail e noticias por RSS alem do ERP.
    Nas “salas de colaboração” uma espécie de fórum de discussão onde são compartilhando inclusive documentos estratégicos, sendo também ali que fornecedores podem discutir com a empresa o desenvolvimento de um novo perfume.
    Eles passaram de uma intranet simplesmente informativa para um conceito colaborativo, que permite a inclusão de qualquer forma de conteúdo.

    Resumo retirado da revista sugerira pelo professor em sala de aula.

  27. Tecnologia atual pesquisada: DATA MINING

    INTRODUÇÃO
    Conhecido também como mineração de dados. Sua função principal é a varredura de grande quantidade de dados a procura de padrões e detecção de relacionamentos entre informações gerando novos sub-grupos de dados. Usado comumente em grandes bancos de dados. Por enquanto podemos pensar que Data Mining é como um agregador e organizador de dados.
    A formação de sub-grupos de dados é feito pelo Data Mining através da execução de algoritmos capazes de conhecer e aprender mediante a varredura dessas informações. Baseado em sistemas de redes neurais, esses dados são examinados e pensados, gerando uma nova informação associativa com outros dados. A formação de estatísticas também é uma de suas funções. Números estatísticos são gerados trazendo resultados comparativos e levando a uma tomada de decisão inteligente.
    É gigantesco o resultado desse processamento, uma das mais fortes são a formação de hipóteses e principalmente regras de dados a serem apresentados ao usuário.

    Que dados o Data Mining avalia?

    Grandes corporações não sobrevivem sem um perfeito sistema de gestão. Perfeito pelo motivo de que hoje em dia milhares de informações são processadas diariamente. Na rotina de pequenas e médias empresas essas informações ficam perdidas e esquecidas. Esses sistemas de gestão armazenam em seus bancos de dados os acontecimentos do dia-a-dia: estoques, pedidos, compras, orçamentos, contábil, financeiro, jurídico, pós-venda, relacionamento com cliente, vendas entre outros. Todos esses departamentos geram informações independentes. A função principal de um Business Intelligence é trabalhar todo esse histórico de acontecimentos inseridos diariamente e garantir que no final das contas todos os dados sejam visualizados como um todo, trazendo informações concretas, consistentes e decisivas, basicamente através da ação do Data Mining.

    Como é feita a mineração?

    Essa varredura nos dados “históricos” requer que eles sejam filtrados a fim de desconsiderar o que é específico sobre algum assunto e valorizar tudo que for generalizado dentro do sistema, ou dados genéricos. Se por acaso uma faculdade recebe muitos pedidos de descontos num determinado dia, significa que houve uma procura comum, e não uma regra sobre “pedir descontos em um dia especifico”. O que quero dizer é que não há ma associação entre pedido de desconto e dia específico como uma regra. O que importa para o Data Mining é que em um determinado dia houve um padrão de acontecimentos, e isso ele ira considerar.

    Fonte: Alvo Conhecimento: Saiba o que é Data Mining. Disponível na internet. http://www.alvoconhecimento.com.br/index.php/2008/04/09/saiba-o-que-e-data-mining. 21 agosto 2008.

  28. 802.11n – Wireless

    O 802.11n é o protocolo que ainda não foi homologado pela IEEE mas virá para substituir o 802.11g. Vários fabricantes já anunciam placas wireless com a tecnologia 802.11n, mesmo ela não ter sido homologada. O problema é que escaparam alguns esboços do que será essa nova tecnologia e as empresas que desenvolvem equipamentos wireless, criaram equipamentos baseados nesses esboços e colocam como sendo o 802.11n. Realmente a tecnologia já está quase pronta, mas falta alguns pontos importantes nele e oficialmente será lançada no inicio do ano de 2009.

    Esse novo padrão terá como ponto forte a sua velocidade, que por enquanto está sendo anunciada, que transmitirá em taxas de até 300 mbs. A solução para o problema foi combinar melhorias nos algoritmos de transmissão e do uso do MIMO (multiple-input multiple-output). O MIMO permite que a placa utilize diversos fluxos de transmissão, utilizando vários conjuntos transmissores, receptores e antenas, transmitindo os dados de forma paralela.
    Existe a possibilidade de criar pontos de acesso e placas 802.11n com dois emissores e dois receptores (2×2), dois emissores e três receptores (2×3), três emissores e três receptores (3×3) ou quatro emissores e quatro receptores (4×4). Os pontos de acesso 2×2 podem utilizar apenas duas antenas, os 2×3 ou 3×3 precisam de três antenas, enquanto os 4×4 precisam de 4 antenas.
    Atualmente o mais comum é o uso das configurações 2×3 e 3×3, com o uso de três antenas, mas pontos de acesso com apenas duas (2×2) podem se tornar mais comuns conforme os preços forem caindo e os fabricantes se vejam obrigados a cortar custos. Da mesma forma, produtos high-end, com 4 antenas (4×4) podem vir a se popularizar conforme com o avanço da tecnologia.
    Para atingir taxas de transmissão tão altas, o 802.11n combina uma série de melhorias. A primeira é a redução do guard interval (o intervalo entre as transmissões) de 800 ns para 400 ns, o que resulta em um ganho de cerca de 11% na taxa de transmissão. A ele se soma o aumento no número de subcarriers para a transmissão de dados de 48 para 52, o que resulta em um ganho proporcional na taxa de transmissão. Somando os dois com uma melhoria no algoritmo de transmissão de erros, foi possível chegar a uma taxa de transmissão de 72.2 megabits por transmissor (usando um único canal).
    Graças ao uso do MIMO, os pontos de acesso 802.11n podem utilizar dois ou quatro fluxos simultâneos, o que dobra ou quadruplica a taxa de transmissão, atingindo respectivamente 144.4 e 288.8 megabits.

    Referência:
    MORIMOTO, Carlos E.. Redes Wireless: Entendendo o 802.11n, 2007. Disponível em: http://www.guiadohardware.net/artigos/802-11n/. Acesso em: 20 ago. 2008.

  29. TI E TERCEIRIZAÇÃO NA ROTINA HOSPITALAR
    13/06/2007 Revista Computer Word

    Em Recife (PE), aderiram a gestão integrada de medicamentos e incorporam canetas eletrônicas e GPRS para aprimorar o atendimento.
    O médico usa a caneta eletrônica para prescrever os medicamentos necessários para consumo imediato e transmite via GPRS ( General Packed Radio Service), a ordem de distribuição para farmácia central do hospital. O responsável pela gestão de estoque recebe a informação e encaminha o comprimido incidado já fracionado para o enfermeiro, que leva a medicação ao paciente. O ciclo inicial de atendimento é encerrado com a distribuição do medicamento que é comprovada por um leitor que validará o código de barras localizado na cama hospitalar.
    A tecnologia traz ainda uma câmera digital integrada e um microprocessador avançado para imagem que registra 50 fotos por segundo, e futuramente querem fazer a implantação de código de barras nos leitos, que permitirão que a equipe de enfermagem registre todo medicamento que foi ministrado.

    http://computerworld.uol.com.br/gestao/2007/06/26/idgnoticia.2007-06-26.9786803695/

  30. Disco Blu-Ray

    Blu-ray, também conhecido como BD (de Blu-ray Disc) é um formato de disco óptico da nova geração de 12 cm de diâmetro (igual ao CD e ao DVD) para vídeo de alta definição e armazenamento de dados de alta densidade.

    É o sucessor do DVD e capaz de armazenar filmes até 1080p Full HD de até 4 horas sem perdas. Requer obviamente uma TV de alta definição (Plasma ou LCD) para exibir todo seu potencial e justificar a troca do DVD.

    Sua capacidade varia de 25 (camada simples) a 50 (camada dupla) Gigabytes. O disco Blu-Ray faz uso de um laser de cor azul-violeta, cujo comprimento de onda é 405 nanometros, permitindo gravar mais informação num disco do mesmo tamanho usado por tecnologias anteriores (o DVD usa um laser de cor vermelha de 650 nanometros).

    Blu-ray obteve o seu nome a partir da cor azul do raio laser (“blue ray” em inglês significa “raio azul”). A letra “e” da palavra original “blue” foi eliminada porque, em alguns países, não se pode registrar, para um nome comercial, uma palavra comum. Este raio azul mostra um comprimento de onda curta de 405 nm e conjuntamente com outras técnicas, permite armazenar substancialmente mais dados que um DVD ou um CD. A Blu-ray Disc Association (BDA) é responsável pelos padrões e o desenvolvimento do disco Blu-ray e foi criado pela Sony e Panasonic. Disputou uma guerra de formatos com o HD-DVD e em 2008 venceu com o apoio exclusivo da Warner Bros., MGM, Fox e Columbia Pictures.

    Disponível em: http://pt.wikipedia.org/
    Acesso em: 08 set. 2008.

  31. RFID: O que é?

    RFID, ou Identificação por Radiofreqüência, é uma tecnologia sem fio (wireless) destinada à coleta de dados. Tal qual como o código de barras, o RFID faz parte do grupo de tecnologias de Identificação e Captura de Dados Automáticos. Seu surgimento remonta há várias décadas, mas o crescimento massivo de seu uso vem se percebendo nos últimos anos, em especial pelam redução do custo de seus componentes.
    O princípio de funcionamento da tecnologia RFID é muito simples, mas há uma série de complicações em sua aplicação, devido ao fato de não haver apenas um conjunto de elementos que seja possível responder à diversidade de necessidades. Um sistema RFID é composto por um transceptor que transmite uma onda de radiofreqüência, através de uma antena, para um transponder, ou mais conhecido por tag. O tag absorve a onda de RF e responde com algum dado. Ao transceptor é conectado um sistema computacional que gerencia as informações do sistema RFID.
    A tecnologia RFID utiliza freqüências dentro da faixa de 50 KHz até 2,5 GHz. Os sistemas de RFID são distinguidos por 3 faixas: baixa, intermediária (média) e alta.
    Em termos de aplicação, os sistemas RFID podem ser agrupados em 4 categorias:
    • Sistemas EAS (Electronic Article Surveillance)
    • Sistemas Portáteis de Captura de Dados
    • Sistemas em Rede
    • Sistemas de Posicionamento
    O potencial de aplicação de sistemas RFID é enorme, tanto no setor da indústria, comercio e serviço onde hajam dados a serem coletados. As principais áreas de aplicação dos sistemas RFID que atualmente podem ser identificadas são:
    • Transporte e logística
    • Fabricação e processamento
    • Segurança
    Outra faixa enorme de aplicações está sendo desenvolvida como uso de sistemas de RFID, a saber:
    • Marcação de animal
    • Acompanhamento postal
    • Bagagem de aviões
    • Controle de acesso a veículos
    • Gerenciamento de catracas de estradas
    • Coleta de dados de medições de consumo de energia
    O desenvolvimento de novos produtos de RFID, a regulamentação e a redução de custos têm provocado o crescimento de novas aplicações em áreas até então ainda não exploradas.

    Fonte: http://imasters.uol.com.br/artigo/3731/tendencias/entendendo_um_pouco_sobre_rfid//imprimir/

  32. Freedom é um ótimo software para auxiliar as empresas no gerenciameto dos negócios e para ter uma melhor certeza na tomada de decisões.

    Freedom Software Livre para Gestão Empresarial.
    Disponível em: http://www.freedom.org.br/
    Acesso em: 02 outubro 2008.

  33. É possível navegar sem clicar?

    “Dontclick” é um projeto experimental desenvolvido em flash em que toda a navegação é efetuada sem dar um único click no botão do mouse. Num primeiro momento a experiência pode parecer desafiadora, mas logo nos primeiros segundos já da para perceber que navegar sem cliques é algo bem simples se a navegabilidade for projetada pra isso.
    Quase uma quebra de paradigmas.

    Dica do Túllio Rapôso em (dicasdepost@gmail.com)

    link: http://www.dontclick.it/

  34. 5 tecnologias que vão revolucionar o computador
    O computador como você conhece vai mudar muito. Conheça os componentes que vão matar o HD, a memória RAM e os atuais processadores.

    O ano era 1995 e alguns consumidores estavam adquirindo o primeiro computador. Na época, a Microsoft lançava o Windows 95, sistema que permitiu a aproximação entre máquina e usuário. As configurações de hardware eram nubladas para o usuário. O pouco que o consumidor sabia era o nome do processador, que podia ser um Intel Pentium um AMD 586.

    O tempo passou e o usuário pôde se aproximar mais da máquina. Aos poucos, as pessoas começaram a conhecer os tipos de memória, discos e demais componentes. Acontece que alguns dos itens de hardware ficaram estagnados no tempo. Tiveram alguma evolução, mas sempre baseados no mesmo padrão. Isso foi uma verdade até há alguns poucos anos, quando o SSD chegou com a promessa de acabar com o HD.

    Agora, além de drives de estado sólido, já sabemos de outras tecnologias que estão chegando para ficar. Hoje o Tecmundo apresenta para você algumas das novidades que têm perspectivas de acabar com os principais componentes do computador: a memória RAM, a CPU e o HD.

    SSD
    A tecnologia que veio para substituir os discos rígidos já é uma realidade. Diversas fabricantes estão investindo alto no SSD, o que tem resultado em drives de maior capacidade e alta velocidade. As montadoras aproveitam essa aposta das fabricantes para incluírem os SSDs em seus produtos.

    (Fonte da imagem: Divulgação/Kingston)

    Marcas como Apple, HP, Samsung e outras têm optado pelos SSDs também pela baixa nos preços. Apesar de a maioria dos computadores vir com espaço de armazenamento limitado a 128 GB (ou no máximo 256 GB), os usuários estão gostando da ideia, tanto pela questão velocidade quanto pelo aspecto leveza.

    O que se pode afirmar até agora é que o SSD é uma tecnologia que tem muito para crescer. O padrão atual ainda se baseia na conexão SATA, contudo, assim como ocorreu com os HDs, os SSDs também podem ter a transferência de dados modificadas num futuro próximo. A revolução do SSD já está acontecendo, e mais: ele pode até matar o disco rígido.

    Memristor
    Em tantos anos de informática, nunca se cogitou uma tecnologia que realmente pudesse substituir a memória RAM. Isso porque o desempenho da memória RAM sempre foi o menor dos problemas. Os módulos evoluíram num ritmo apropriado, sempre acompanhando o lançamento dos novos processadores.

    Se você já tem alguns de experiência com computadores, talvez se lembre da época das memórias EDO, DIMM e outros tantos padrões que antecederam o DDR. E nem mesmo o último patamar da memória RAM permaneceu estagnado. Atualmente os módulos mais comuns já são do tipo DDR3, substituindo a segunda geração do padrão DDR.

    Contudo, a memória RAM tem seu limite, o qual deve ser atingido muito em breve. Pensando nisso, os pesquisadores vêm investindo muito tempo e raciocínio para viabilizar a construção de dispositivos baseados no memristor. A saída da teoria para prática aconteceu apenas em 2006, quando a HP deu o primeiro passo no desenvolvimento de memristores.

    De lá para cá, a fabricante ganhou alguns aliados, como a Universidade da Califórnia (em Santa Bárbara). A ideia é introduzir esse quarto elemento da eletrônica para substituir as memórias RAMs e até os dispositivos de armazenamento — o que significa que até os SSDs podem estar com os dias contados.

    Memristores alinhados (Fonte da imagem: Divulgação/HP)

    Não há previsão para a revolução do memristor, contudo, é certo que ele é uma das grandes apostas para a próxima década. O desenvolvimento da tecnologia também depende um pouco do interesse de outras empresas. A HP vem mantendo o projeto, mas se alguma fabricante, como a Samsung, decidir se aliar, pode ser que o memristor chegue aos computadores antes do esperado.

    Grafeno
    Uma terceira tecnologia que deve aportar nos computadores é o grafeno. Esse componente tem grande perspectiva de adoção nas CPUs, principalmente porque o silício está chegando a seus limites. Se observarmos a nanotecnologia de construção dos atuais processadores, podemos ver que tanto Intel quanto AMD estão próximas dos 20 nm (nanômetros).

    Consideramos aqui esse componente como uma tecnologia, pois ao adotá-lo nos processadores não será possível manter as mesmas arquiteturas que já existem. E o lançamento de produtos à base de grafeno não está tão distante. Ainda no fim de 2009, a Fujitsu criou um protótipo para produção em larga escala.

    AmpliarTransistores de grafeno em um substrato de silício (Fonte da imagem: Divulgação/Fujitsu)

    Agora em 2011, foi a IBM que apresentou novidades. A empresa mostrou o primeiro circuito integrado com componentes de grafeno. Com essa experiência, os cientistas conseguiram fazer o grafeno grudar nos componentes de silício. O circuito rudimentar da IBM consistiu apenas de um transistor de grafeno e dois indutores. A frequência desse dispositivo é de 10 GHz, um valor que supera em muito os atuais circuitos baseados apenas no silício.

    Apesar de grandes avanços, o grafeno tem alguns concorrentes, como: o siliceno e o molibdenite. Esses outros componentes têm possíveis aplicações, mas nenhum demonstrou as mesmas características já conhecidas do grafeno, como o funcionamento em frequências de até 300 GHz e o resfriamento automático. Assim, a aposta na revolução de grafeno ainda é alta e pode ser que ele apareça nos próximos 10 ou 20 anos.

    Magnetismo
    Paralelamente às pesquisas do grafeno, os cientistas estão apostando na criação de processadores magnéticos. Essa tecnologia deve ser revolucionária, pois vai derrubar muitos aspectos dos atuais componentes.

    A primeira mudança está no modo de atuação dos processadores magnéticos. Eles não necessitam de elétrons para realizar operações, e o armazenamento e o processamento de informações são realizados com ímãs. A lógica é simples: os polos nortes e sul do ímã são os 0 e 1 da informática.

    MRAM – Memória de Acesso Aleatório Magnético (Fonte da imagem: Reprodução/Venture Beat)

    Em experiência recente, cientistas utilizaram nanomagnetos de 200 nm para construir uma memória magnética. Os resultados foram positivos e provam que é possível utilizar a computação magnética para construir processadores e memórias, bastando apenas evoluir o processo de fabricação dos componentes e encontrar uma maneira dos transistores entenderem as informações.

    Um protótipo funcional de processador magnético comprovou que um modelo básico poderia ser cem vezes mais rápido que os modelos convencionais atuais. Os componentes magnéticos ainda devem dissipar um mínimo de calor (visto que não há movimentação de elétrons). Essa revolução não tem data para acontecer, mas duas décadas deve ser tempo suficiente para o amadurecimento e aplicação do magnetismo nos computadores.

    Computação quântica
    A quinta e última tecnologia de nossa lista é a que está mais distante de ser dominada. Trata-se da mecânica quântica, área que possibilitará o desenvolvimento de processadores quânticos. Entender o funcionamento de uma CPU desse tipo não é tarefa fácil, aliás, é de dar nó na cabeça.

    Uma explicação básica pode dar uma noção do que um processador quântico pode realizar. Sua CPU atual trabalha com bits, os quais podem assumir valores 0 ou 1 — um bit só pode assumir um desses valores. Nos processadores quânticos existirão qubits, os quais conseguem armazenar os valores 0 e 1 simultaneamente (como se fosse possível ter o polo sul e o polo norte de um ímã de um mesmo lado).

    Esquema que demonstra a computação quântica com a molécula de Iodo (Fonte da imagem: Reprodução/PopSci)

    Há algumas semanas, no entanto, uma das barreiras (chamada decoerência) da computação quântica foi quebrada. Cientistas conseguiram quebrar o paradigma de uma molécula não poder assumir os dois valores ao mesmo tempo. Com isso, em mais três ou quatro décadas pode ser que tenhamos computadores quânticos.

    O que isso deve significar para nós? Em termos de desempenho, um processador quântico poderá ser centenas de milhares de vezes mais rápido que os atuais. O único problema é o desenvolvimento, que não depende apenas de encontrar um material apropriado, mas sim de quebrar as regras atuais da física e ver a matéria de uma nova perspectiva.

    Os empecilhos na evolução
    No que diz respeito ao SSD, não há como encontrar nada que o impeça de reinar por algum tempo nos computadores. Já o memristor ainda depende de uma série de pesquisas e de testes, pois ainda não existe nenhum produto baseado nesse minúsculo componente.

    Apesar da demora no desenvolvimento, a HP fez uma publicação em maio de 2011, na qual a empresa relatou ter feito demonstrações exibindo como o memristor trabalha com os atuais materiais da eletrônica.

    Os memristores de perto (Fonte da imagem: Divulgação/HP)

    O desenvolvimento e a aplicação do grafeno não estão muito longe, até porque o funcionamento é muito parecido com o dos processadores atuais. O maior problema com esse material é fazer com que o silício e outros componentes possam trabalhar junto com ele, algo que já está em testes e não deve dificultar a implementação do componente.

    Para que os ímãs possam substituir os elétrons, por exemplo, será preciso entender de maneira avançada o processamento de dados nesses componentes. Além disso, será necessário realizar adaptações para eles trabalharem com componentes eletrônicos e diminuir o tamanho dos ímãs para pouquíssimos nanômetros.

    Quanto à computação quântica, essa é a que tem menor prospectiva de ser adotada tão brevemente. Como já dito, os pesquisadores terão de aprender algo que está além dos conceitos atuais, descobrir novos materiais e tentar transformar diversas teorias em realidade.

    Você aposta em qual?
    Como você pôde ver, existem muitos caminhos para a evolução — e a revolução — dos computadores. Alguns estão muito perto de serem adotados, outros muito longe. Você já conhecia todas essas tecnologias? Aposta em alguma? Caso você tenha mais alguma para relatar, utilize nosso campo de comentários.

    Leia mais em: http://www.tecmundo.com.br/11873-5-tecnologias-que-vao-revolucionar-o-computador.htm#ixzz1Y4ECKDlc

Deixe uma resposta

Faça o login usando um destes métodos para comentar:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair / Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair / Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair / Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair / Alterar )

Conectando a %s

%d blogueiros gostam disto: