sexta-feira, 13 de novembro de 2009

Previsões furadas na história de TI



Por Ligia Sanchez e Gustavo Brigatto

A todo o momento, revoluções na área de tecnologia são anunciadas como grandes promessas, no entanto, algumas não se concretizam.

Alan Kay, um dos pais da programação orientada a objetos e das interfaces GUI, disse em 1971: a melhor forma de prever o futuro é inventá-lo. E as empresas de tecnologia tentam o tempo todo colocar seu nome nos livros de história criando produtos e conceitos que podem revolucionar a indústria. Às vezes, elas conseguem, mas em muitas vezes, não. “Algumas das mais fundamentais inovações em tecnologia têm pouco a ver com tecnologia em si”, afirma o relatório TMT Trends 2007, da Deloitte.

A consultoria sustenta que a história tem muito a dizer sobre o futuro da tecnologia. “A maioria das tecnologias mais significativas de hoje, das conexões sem fio ao armazenamento de informações em solid-state, vêm evoluindo por pelo menos uma década”, completa o relatório da empresa. Por isso, da próxima vez que alguém lhe oferecer algo como disruptivo, mas que você não acredita ser a próxima grande onda, anote a idéia, ela pode voltar remodelada alguns anos depois.

InformationWeek Brasil selecionou algumas dessas idéias e produtos e preparou um especial que mostra de onde veio e para onde foram algumas promessas que surgiram no mercado de TI na última década.

Bug do Milênio (Y2K)

A promessa

À 0h do dia 1º de janeiro de 2000, o caos imperaria e toda a sociedade como conhecemos iria ruir. Essa, pelo menos era a expectativa para a chegada do novo milênio (que, na verdade, só aconteceria no ano seguinte), uma mistura de crenças religiosas e também tecnológicas. Tudo por que uma falha na linguagem Cobol faria com que os relógios dos computadores não lessem o novo ano como 2000, mas como 1900. O temor de problemas gerou uma onda de investimentos. Pesquisa da InformationWeek Brasil, realizada no fim de julho de 1999, mostrou que nas grandes corporações o problema estava sendo tratado com bastante seriedade. De 59 empresas ouvidas – entre elas McDonalds, Embratel, Philip Morris e Andrade Gutierrez – mais de 88% tinham projetos de correção em andamento, enquanto pouco mais de 11% não pareciam estar preocupadas com o problema. Das que estavam trabalhando para se adequar ao ano 2000, metade acreditava que seus esforços estavam concluídos. As demais continuavam batalhando rumo a uma virada mais tranqüila.

O resultado

O ano novo veio e foi; e o mundo continuou no mesmo lugar de sempre. Será que nada aconteceu porque não era mesmo para acontecer ou porque as empresas se preveniram? O fato é que a histeria criada pelo bug do milênio, no fim das contas, teve seus impactos positivos. Foi neste período, em que as empresas precisavam verificar se seus programas estavam suscetíveis a problemas, que a demanda por testes de software começou a surgir. Foi aí também que a Índia garantiu seu lugar como principal destino para a terceirização de serviços de tecnologia. Quem dera o Brasil tivesse tido condições de se posicionar da mesma forma.

Network Computer (NC)

A promessa

Um PC compacto, com baixo processamento, pequena memória, barato e com acesso dedicado à internet. Esta era a idéia que deveria revolucionar o mercado de tecnologia em 1996, segundo o CEO da Oracle, Larry Elllison. E era isto que estava por trás do Network Computer (NC). O sistema rodava em Java e as informações armazenadas em servidores na web eram acessadas por um navegador. Enquanto os computadores tradicionais custavam US$ 1,5 mil à época, o NC chegou ao mercado custando US$ 500. A idéia foi seguida pela Microsoft e pela Intel, que lançaram o NetPC, com suporte aos aplicativos da empresa de Redmond. A Apple também criou um NC, o Pippin.

O resultado

Mais um dispositivo que entrou para a história e para a memória da TI. “Foi uma idéia fora do seu tempo”, afirma Carlos André, diretor-geral da Informatica Corporation e presidente da Oracle no Brasil à época do lançamento do produto. Para ele, as idéias eram todas certas, mas a conexão à internet ainda não era popular e não existiam ferramentas de desenvolvimento de aplicativos com Web 2.0. Mas, avalia, a idéia foi implementada de várias outras formas depois. Para ele, o Blackberry é um dos ‘resultados’ do produto desenvolvido pela Oracle em 1996 e sepultado quatro anos depois. “Um dispositivo com um processador, pequena memória e com acesso a informações armazenadas na rede”, completa.

Morte do mainframe e do Cobol

A promessa

Com o movimento de descentralização da TI na década de 1980, o surgimento das linguagens de programação orientadas a objetos e da internet, estes dois ícones de eras passadas da tecnologia tiveram suas mortes decretadas. Tida como pesada e complexa, a linguagem foi alçada à categoria de vilã no auge da histeria do bug do milênio. Pelo lado dos mainframes, vários equipamentos foram tirados das tomadas e substituídos pela arquitetura x86.

O resultado

Nem um nem outro abotoaram o paletó. Pelo contrário, ambos deixaram a UTI. Empresas como Bull, IBM e Software AG não fecharam as portas ou suas unidades de negócios, pelo contrário, renovaram seus portfólios. A plataforma mainframe ganhou novos produtos (vide o recém-lançado System z10, da IBM) suporte à web e ao conceito de SOA. O mercado de Cobol reaqueceu com o bug do milênio e a linguagem evoluiu, orientando-se a objetos com o Cobol 2002. Novos mainframes continuam a ser instalados, os conhecimentos em Cobol ainda constam nos requisitos de muitas vagas de emprego e os programadores (poucos é verdade) são contratados a peso de ouro. Roger Levy, vice-presidente da unidade de plataformas abertas da Novell, acredita que o mainframe vai voltar ao mercado como um “forte elemento” para soluções da chamada TI verde. “São máquinas que garantem uma relação de custo-desempenho bastante interessante, especialmente na consolidação de servidores”, afirma. Para Álvaro Leal, da consultoria IT Data, a resposta para a sobrevivência das duas tecnologias – que já deveriam ter morrido há pelo menos 15 anos na opinião de muitos – é seu uso no sistema financeiro, “que é avesso a mudanças”.

PLC

A promessa

A tecnologia de internet pela rede elétrica (ou Power Line Communication – PLC) trouxe a possibilidade de se oferecer conexões de mais de 200 Mbps utilizando uma das redes de maior capilaridade em todo o mundo. No Brasil, apoiando-se em programas governamentais, como o Luz para Todos, ela permitiria que os brasileiros tivessem acesso à internet, mesmo nos rincões mais remotos. Entre 2004 e 2005, período em que a tecnologia esteve mais em voga, vários projetos – como o da cidade de Barreirinhas, interior do Maranhão e no bairro da Mooca, em São Paulo, realizado pela Companhia de Desenvolvimento Habitacional Urbano (CDHU), do Governo do Estado de São Paulo – foram divulgados, com resultados bastante satisfatórios.

O resultado

No Brasil, apenas cerca de três mil pessoas usam o sistema e o número deve dobrar este ano, segundo estimativas da Hypertrade Telecom. O que parecia ser a salvação da lavoura acabou não vingando e o desenvolvimento de outras tecnologias de transmissão de dados sem fio – vide WiMAX e 3G – ofuscou os ímpetos universalizadores da PLC. “Hoje o foco está sendo nas empresas do setor elétrico, no desenvolvimento de redes inteligentes, as Smart Grids”, explica Pedro Luis de Oliveira Jatobá, presidente da Associação de Empresas Proprietárias de Infra-estrutura e Sistemas Privados de Telecomunicações (Aptel). Isso significa que os distribuidores têm investido na PLC como uma ferramenta para melhorar a gestão de suas redes. “O uso se intensificará e a universalização pode vir daí”, completa. Jatobá adianta que a partir de abril, a Aptel começará um nova fase do projeto realizado em Barreirinhas, de uso da PLC em conjunto com tecnologias de WiMASH e Fiber-To-The-Home (FTTH). A Eletropaulo, de São Paulo; a Companhia Paranaense de Energia (Copel) e a Companhia Energética de Goiás (Celg), já anunciaram planos para lançar comercialmente o acesso à internet pela PLC. É ver para crer.

Mais tempo livre

A promessa

Esta é um verdadeiro clássico: cada novo dispositivo ou conceito traz o slogan da simplificação do dia-a-dia como principal vantagem. Ou seja, mais tempo para a vida pessoal ou para pensar estrategicamente com o uso da tecnologia XYZ. As ferramentas de produtividade e de colaboração permitem que as pessoas troquem informações e se dediquem cada vez mais a novos projetos.

O resultado

As coisas não funcionam bem assim. Como toda peça publicitária, ninguém nunca fala dos problemas de compatibilidade, do tempo gasto para ensinar pessoas a usar determinada ferramenta. Cada novo release, funcionalidade ou interface traz, realmente, muitas facilidades e comodidades. Entretanto, os computadores, criados pelo homem reproduzindo o funcionamento de seu cérebro, superaram as limitações deste órgão e o criador corre para se igualar “à criatura” e se tornar multitarefa. O vício do Blackberry já levou muitos executivos a abandonarem o aparelho. Outros preferem carregar consigo ou sincronizar informações apenas de projetos específicos. Pequenos truques que não deverão fazer efeito quando as maravilhas de inovações como as comunicações unificadas, por exemplo, estiverem amplamente difundidas.

Itanium

A promessa

Desenvolvido pela Intel em parceria com a HP, os chips Itanium, lançados em 1999, prometiam transformar as máquinas “em servidores de alta velocidade ideais para ambientes corporativos e para e-business”. Baseados na tecnologia Explicitly Parallel Instruction Computing (EPIC) os chips de 64-bits tinham tudo para revolucionar o mercado com a possibilidade de realizar mais instruções por ciclo do clock. Era o fim da linha para a arquitetura x86 e das aplicações em 32-bits.

O resultado

Também chamado de Itanic (uma referência ao Titanic, navio que não podia afundar, mas naufragou) o Itanium tinha previsão de vendas de US$ 28 bilhões em 2004, segundo a IDC. O fraco desempenho da primeira versão e o reposicionamento do Itanium 2, no entanto, fizeram a realidade ser bem diferente e o número real chegou a US$ 1,4 bilhão. Em 2002, os números caíram ainda mais para US$ 9 bilhões e depois para US$ 7,5 bilhões em vendas em 2006. Em 2009, de acordo com a consultoria, as vendas devem se aproximar dos US$ 6,6 bilhões. Dean McCarron, principal pesquisador da Mercury Research, estima que a Intel venda cerca de 200 mil processadores Itanium por ano. “O fim [dele] acontecerá nos próximos cinco anos. A HP terá de anunciar algum modo de transição”, previu a um site inglês o VP da IBM, Scott Handy. A Big Blue tem óbvios interesses na morte da plataforma da Intel – se isso acontecer seu chip Power6 terá menos um competidor. O calendário da Intel está traçado até 2011 e o lançamento da Itanium Solutions Alliance (ISA), que prevê investimentos de US$ 10 bilhões na plataforma até 2016, pode ser a luz no fim do túnel.

O fim do papel

A promessa

Desde que o computador começou a se disseminar, tanto no ambiente corporativo como no mercado de consumo final, a idéia de que o papel perderia seu lugar na história não deixa de pipocar de tempos em tempos. Para a gestão empresarial, redução de papel é economia. Com o advento da internet, a ameaça se intensificou: a mídia e os livros impressos foram os principais alvos; documentos também entraram na mira, com a adesão de governos à onda digital, por iniciativas como nota fiscal eletrônica, voto eletrônico e declaração online do imposto de renda. Sem falar na enxurrada de fotos digitais. E outra questão que de nova não tem nada, mas ganhou força particularmente nos últimos dois anos, é a ambiental. Afinal, papel é fibra vegetal e preservação do meio ambiente é prioridade.

O resultado

No ambiente corporativo, os sistemas de gerenciamento e troca de informação ganharam forte adesão, mas o papel continua a ser utilizado, e muito. Já no mercado de consumo, o grande desafio continua a ser como disseminar a leitura no meio digital. Jornal e livro se carregam a qualquer lugar… o mesmo não ocorre com os computadores. Qualquer dispositivo móvel tem a dependência de bateria. A oferta de “e-book readers” está difundida, já o seu consumo, engatinha. A mais recente e promissora é o Kindle, da pontocom norte-americana Amazon. Recém-lançado, é esperar para ver. Por enquanto, o papel continua a marcar presença em qualquer lugar.

Linux nos desktops

A promessa

Baratear o custo de PCs oferecendo alternativas de software baseado em código aberto. Além de permitir a popularização da tecnologia, já que o custo dos equipamentos poderia cair, o Linux nos desktops seria uma alternativa para reduzir o déficit de profissionais de tecnologia no Brasil. Com a possibilidade de desenvolver seus próprios aplicativos, jovens poderiam se interessar por TI e se capacitar para atuar neste mercado.

O resultado

Dezessete anos depois de entrar em cena, o Linux conseguiu abocanhar cerca de 5% do mercado de desktops. De acordo com uma pesquisa do Laboratório de Desenvolvimento de Código Aberto (OSDL, na sigla em inglês), de 2005, um dos principais impedimentos para sua adoção é a falta de compatibilidade com aplicativos populares, como Photoshop, PageMaker, AutoCAD e Quicken. Distribuições como o Ubuntu fazem o seu papel na popularização do sistema operacional e os fabricantes colocam no mercado desktops equipados com ele, mas nada funciona. A cada suspiro do Linux uma nova onda bate e varre as esperanças de seus entusiastas.

Grid Computing

A promessa

“Depois da revolução da internet, uma nova se avizinha: o desenvolvimento da arquitetura Grid de processamento globalizado.” A aposta é dos acadêmicos brasileiros Sérgio F. Novaes e Eduardo de M. Gregores, na introdução de seu livro sobre o assunto, Da Internet ao Grid – a globalização do processamento, de 2004. A idéia da grid computing, termo cunhado em meados dos anos 1990, é realmente genial: utilizar recursos computacionais ociosos distribuídos em diferentes locais para um fim comum, em geral tarefas que exigem alta capacidade de processamento.

O resultado

Ofertas de grid computing estão disponíveis no mercado, encabeçadas por fornecedoras do porte de IBM, Oracle, HP e Sun Microsystems. No entanto, a adoção – principalmente no mercado corporativo – ainda é incipiente, no Brasil e no mundo, apesar de projetos referência, como o Folding@Home, restritos à pesquisa acadêmica. “Ainda não se apresentou uma solução econômica e operacionalmente viável. Os riscos de compartilhamento ainda não compensam”, avalia Fernando Meireles, diretor da Escola de Administração de Empresas de São Paulo da Fundação Getúlio Vargas (FGV-EAESP).

Sentiu falta de alguma previsão?

Nenhum comentário:

Postar um comentário