ARTIGO

Evolução da microinformática: ciclos, cenários e tendências

Fernando de Souza Meirelles

Professor, Chefe do Departamento de Informática e Métodos Quantitativos e Coordenador do CIA - Centro de Informática aplicada da EAESP/FGV

 

 


Palavras-chave: Informática, microinformática, tecnologia de informação, administração de recursos de informática, história da Informática


Key words: Informatics, information technology, informatics resources management, informatics history


 

 

 

As evoluções tecnológicas dos últimos anos têm evidenciado o valor da informação e provocado uma utilização crescente de computadores. O uso vem crescendo para todos os tipos de computadores, mas tem sido explosivo para os de pequeno porte em aplicações com um enfoque mais moderno de utilização, como nos sistemas de automação de escritórios e nos chamados sistemas de suporte a decisão.

Apesar do crescimento, esta forma de uso dos recursos de Informática continua pouco explorada devido, entre outros fatores, ao pequeno grau de informatização ou "cultura de Informática" que muitas empresas ainda apresentam, o que, com o passar do tempo, tenderá a ser resolvido, tornando o computador uma ferramenta de trabalho tão útil e necessária quanto o telefone, o fax, a calculadora, a máquina de escrever e outros equipamentos tradicionais e presentes no dia-a-dia das empresas e das pessoas. Na nova sociedade que está surgindo, o computador está se tornando uma ferramenta cada vez mais imprescindível, sendo caracterizado como o agente responsável pelo processo de transformação para a nova sociedade da informação.

A explosão do uso de computadores e da informatização pode ser atribuída a três fatos:

muitas tarefas podem ser realizadas e executadas de forma mais conveniente e com menor custo com computadores; numa sociedade de crescente complexidade, existem cada vez mais tarefas e processos que sem computadores provavelmente não poderiam ser executados;

a qualidade de vida é uma questão fundamental e a maioria acredita que, pesando os impactos potenciais positivos e negativos da informatização, o balanço é positivo.

É fácil predizer que vai existir um computador no seu futuro - para receber informação de alguma fonte, realizar algo com essa informação e transmiti-la para outra pessoa ou sistema. Cada vez mais a maioria das pessoas estará envolvida na manipulação e transmissão de informação. Uma nova sociedade na qual as pessoas transformam a Informática em ferramenta que lhes permite amplificar a inteligência humana e adquirir a informação necessária para explorar novos sistemas de educação, saúde, manufatura, governo, entre outros.

Redes de dados serão comuns, trazendo a comunicação em multimídia a qualquer lugar do mundo, permitindo o uso simultâneo de dados, desenhos, filmes, imagens, documentos, gravações, som, voz e planilhas, entre outras formas de informação.

O moderno escritório central é produto do telefone, que permitiu separar a administração da indústria. A medida que os computadores se tornarem os meios primários de comunicação, acima dos telefones, fax, celulares etc.. será possível levar o trabalho aos trabalhadores em vez dos trabalhadores ao trabalho. Os micros ainda copiam os tradicionais métodos de trabalho; junto com essa evolução, a forma de trabalho também evoluirá. Isto é, durante a década de 90 e que ocorrera a verdadeira revolução.

A capacidade do hardware está se tornando menos relevante uma vez que seu custo está baixando. Atualmente, os recursos que o hardware oferece estão muito além dos explorados pelos softwares disponíveis. Por outro lado, o software de última geração exige um equipamento também de última geração - a crescente complexidade interna do software requer capacidades de processamento também crescentes de hardware para viabilizar uma maior facilidade de uso e ampliar o potencial de recursos e aplicações.

Software, integração, conectividade e custo de suporte e treinamento estão se tornando fatores relevantes.

Os segmentos ligados à área de Informática movimentaram, em 1990, no mundo cerca de 500 bilhões de dólares, dos quais aproximadamente 50% são referentes a hardware, 25% a software e o restante está dividido em manutenção, comunicação de dados e outros serviços (ver gráfico 1).

 

 

Porém, enquanto a taxa de crescimento do mercado (faturamento) mundial do hardware, que já foi de 30% ao ano, está caindo para cerca de 10% ao ano, a do software chega a 30% ao ano. Os motivos são simples: o custo está caindo e a tecnologia dos equipamentos tem evoluído em uma velocidade espantosa, não acompanhada pelo software. Projeções para o final da década resultam em um mercado mundial superior a 2 trilhões de dólares, sendo cerca de 35% em hardware; mais de 40% em software e o restante em outros serviços. As projeções para o ano 2000 deixam clara a importância do software e a supremacia dos micros no mercado de Informática.

Os novos e crescentes potenciais oferecidos estão e continuarão a provocar uma migração do uso de computadores de maior porte para micros. Esta migração é um instrumento vital para que a empresa possa absorver e disseminar uma nova cultura de Informática e, conseqüentemente, usufruir os benefícios da automatização, indispensáveis na nova sociedade da informação que está se cristalizando.

Essa migração e o equilíbrio deverão completar-se durante a década de 90. O problema é que tudo está em desenvolvimento e não se sabe - quando estará disponível?

Para entender os ciclos de evolução e revolução da Informática e seus impactos, é necessário perceber a rapidez com que as transformações vêm se realizando nas últimas décadas e ter uma visão do cenário atual e algumas de suas tendências. Em especial, para o enfoque principal deste texto: a microinformática (ver tabela 1).

Nesse sentido, o texto está dividido em três grandes itens: hardware, software e uso da microinformática. Cada um dos itens começa com um breve resumo da evolução, para então apresentar dados e previsões sobre o comportamento do mercado, das empresas e dos usuários. Em cada item temos ainda uma parte final delineando o cenário atual, mostrando os ciclos e revelando as tendências.

 

Dos pioneiros até as famílias atuais

Em 1976, Sthephen Wozniak e Steve Jobs formaram uma pequena empresa, a Apple, onde construíram, numa garagem de fundo de quintal, o Apple I. Um ano depois, em 1977, com um novo e melhor projeto surge o Apple II. A Apple foi a empresa que cresceu mais rápido na história americana. Suas vendas saltaram de menos de 1 milhão de dólares em 1977 para 120 milhões em 1980 e para 1 bilhão de dólares em 1983. A Apple detém um pouco mais de 10% do mercado mundial de micros, faturou em 1993 cerca de 8 bilhões de dólares com 6% de lucro, tem 20.000 funcionários e sua ação cotada a US$ 40. Um valor impressionante é o faturamento por funcionário de 400 mil dólares por ano (Microsoft fatura 300, IBM 200 e DEC 100).

Em 16 de agosto de 1981, a IBM entrou no mercado de micros introduzindo o PC, um microcomputador com tecnologia de 16 bits que em pouco tempo se tornou um padrão (PC - Personal Computer). Dois anos depois, em fevereiro de 1983, lança um novo modelo, o PC-XT com Winchester opcional. Em 1984 a IBM já detinha mais da metade de todo o mercado de microcomputadores, principalmente pela sua atuação mercadológica que incluiu, nesse período, uma constante guerra de preços e a conseqüente diminuição do preço dos PCs.

Em 1982, são lançados no mercado nacional o CP-500 da Prológica e o DGT-100 da Digitus na linha do TRS-80, Microdigital e Prológica com modelos da linha Sinclair e os primeiros da linha Apple, o Micro Engenho da Spectrum/Scopus e o AP II da Unitron. A linha Apple dominou o mercado nacional do final de 1983 até 1985, quando o padrão passou a ser o dos IBM-PC compatíveis, que tiveram os seus primeiros modelos lançados em 1983 pela Softec, Microtec e Scopus. A proliferação de modelos tanto no mercado internacional como no nacional continua a ser muito grande; em 1987 mais de 300 modelos diferentes de micros eram comercializados no Brasil.

Outros modelos, com tecnologia de 16/32 bits, marcaram a evolução da microinformática. O Lisa, lançado em janeiro de 1983, e principalmente o Macintosh, em janeiro de 1984, ambos da Apple, revolucionaram com um novo conceito de software e interface com o usuário. Outro lançamento importante foi o IBM PC-AT (AT - Advanced Technology/) em agosto de 1984, época em que o PC já era o padrão "de fato" para micros. É grande a proliferação no mercado dos "compatíveis".

A Compaq começa a destacar-se, assumindo o terceiro lugar no mercado de micros, depois da IBM e da Apple. Ela domina o mercado de micros portáteis e torna-se pioneira com os lançamentos do Compaq 386 em 1986 e do Compaq 486 em 1989.

Aumenta a guerra de preços cíclica, que continua ate hoje, entre os principais fabricantes de micros. Os líderes do mercado começam a ampliar a garantia para dois a três anos.

Outra característica importante é o surgimento de modelos de micros cada vez menores. No final da década de 80, surgem os laptops no lugar dos "portáteis" da Compaq, como os modelos da Toshiba, que mais tarde se transformam nos notebooks, hand-held e palmtops, como o HP-95/100. No início, eram monocromáticos e com telas de baixa resolução, depois surgiram as telas de alta resolução coloridas, mas ainda caras.

As tecnologias de produção de chips continuam evoluindo com rapidez. Os custos são cada vez menores, a escala de integração e a capacidade crescentes, como demonstra a evolução dos modelos do maior fabricante de microprocessadores, a Intel, que faturou 6 bilhões de dólares em 1992 e vendeu, depois de 1980, mais de 120 milhões de microprocessadores (ver tabela 2).

 

 

Atualmente, os microprocessadores em uso podem ser associados a três grandes famílias de equipamentos. Existe uma quarta categoria, que retine diversos grupos de aplicações eletrônicas dedicadas como jogos eletrônicos e inúmeros outros equipamentos que utilizam microprocessadores. As três grandes famílias já venderam mais de 150 milhões de micros até o final de 1993 (ver tabela 3).

 

 

Na família IBM-PC c compatíveis, a Intel tem a maior participação, cerca de 90% da base instalada. Nos Apples, o único fornecedor vinha sendo a Motorola. Foi lançado recentemente o PowerPC baseado no RISC 601 da IBM e que faz parte de uma aliança entre Apple, IBM e Motorola para desenvolver uma plataforma comum para o final da década. Na terceira família, não existe nenhum fabricante predominante e são utilizados tanto chips proprietários como padrões para as famílias anteriores.

A participação de microprocessadores no mercado é dinâmica. No início da década, a Intel tinha 80% e a Motorola 20%. Em 1992, a participação de outros fabricantes já era maior que 10%. A tendência para meados da década é que a Intel continue a dominar e crescer em faturamento, mas caia para perto de 70%, a Motorola para cerca de 14% e que outros tenham uma participação crescente superior aos 13% de 1993.

A partir dos processadores 386, os fabricantes começam a utilizar uma estratégia de oferecer, além de várias velocidades de clock, vários modelos básicos para o mesmo processador: DX, SX, SL e outras variações.

A obsolescência tem sido muito grande e crescente. Os modelos lançados têm uma vida no mercado muito curta: a maioria sai de linha em menos de dois anos, outros duram menos de um ano. Contudo, para o usuário, essa obsolescência, via de regra, não é física, isto é, o micro fica obsoleto para uma aplicação, mas não para a empresa, que continua a utilizá-lo em outras aplicações adequadas.

 

Mercado dos PCs Compatíveis

A vida útil física de um micro pode chegar a dez anos, mas em média é menor. Já a vida útil tecnológica é muito menor e tem diminuído com o tempo devido à aceleração da obsolescência pela diminuição da duração dos ciclos de padrões de micros. A vida útil conservadora, considerada nos cálculos da tabela 4 começa em sete anos em 1980 e vai diminuindo até três anos em 1996. O resultado é que a base ativa, os micros em uso, é a venda acumulada menos os micros que já tiveram sua vida útil esgotada.

 

 

 


Clique para ampliar

 

Nota-se que de 1981 a 1986 o mercado nacional cresceu mais de 80% ao ano em volume. Em 1988 já existiam no Brasil mais de 1 milhão de micros, e nos EUA, mais de 40 milhões com um crescimento em volume de cerca de 15% ao ano.

O crescimento registrado e previsto para os PCs vem superando as projeções otimistas. A penetração é espantosa e continua crescendo: passaram de uma média de 1.000 micros PC mensais, em 1986, para uma média de cerca de 40.000 micros PC por mês em 1993, apesar da "crise econômica".

O simples aumento da demanda por micros nas empresas não explica tudo. É importante notar outro fenômeno: o PC tornou-se um padrão para as aplicações pessoais, profissionais, comerciais e de automação de escritório e absorveu 92% do mercado de micros em 1993 (PC / Total da Venda Anual), ou seja, em 1993 praticamente só se venderam micros PC. A partir de 1994, o PC, como é conhecido hoje, continuará a dominar o mercado, mas suas vendas devem representar taxas decrescentes do total (na tabela 4, a estimativa para 1996 é de 80%), começando a dar lugar a novos modelos que ainda estão sendo desenvolvidos.

O PC era responsável por pouco mais de um terço (36%, PC / Total da Base Ativa) dos micros sendo utilizados (Base Ativa) em 1990. Em 1993, chega próximo aos três quartos (73%) e deve atingir seu pico em 1995 com cerca de 90%.

A base instalada de PCs no Brasil cresceu entre 1983 e 1993 a uma taxa média maior que 80% ao ano, mesmo tendo caído temporariamente em 1990 para cerca de 9%, em conseqüência da recessão econômica. Após 1990, ela tem oscilado em torno do valor de 20% ao ano.

Ser seduzido pelo último modelo de micro com mais recursos e capacidade é um perigo que todos que convivem com o mercado de consumo correm. Contudo, a decisão não é tão simples assim, uma vez que o último modelo pode ser de fato uma oportunidade para aumentar a produtividade e explorar novos recursos. Os anúncios e a imagem mercadológica do último modelo amplificam ao mesmo tempo as tentações e os riscos.

As opiniões podem divergir, mas um fato é inquestionável: a velocidade do desenvolvimento tecnológico está restringindo perigosamente a vida útil dos produtos. O ciclo de desenvolvimento de novos modelos de processadores e, como conseqüência, de novos micros, está diminuindo cada vez mais (ver tabela 5).

 

 

Os diagramas sobre os micros PC em uso no Brasil mostram a evolução da composição da base ativa por modelo (processador), sua tendência e previsão até 1996 (ver gráfico 2).

 

 

Em 1988, tínhamos praticamente só o XT (97%). Em 1991, o XT era responsável por 71%, o 286 por 20%, o 386 por 8% e começava-se a vender o 486. A situação atual é de 50°/!) de XT que tende para valores cada vez menores, 17% em 1995 e cerca de 6% em 1996. O 286, atualmente com 15%, deve ficar com 6% em 1995. A participação na composição do 386 cresce até 40% em 1995. A previsão para o 486, que hoje representa 5% da base instalada, e de cerca de 35% em 1995, crescendo para mais de 45% em 1996.

Assim, podemos concluir que a média da participação de XTs nas médias e grandes empresas nacionais privadas está ainda longe da média mundial, que deve ser em torno de um terço de XT na base ativa de micros PC. Se acrescentarmos a essa estatística as pequenas empresas nacionais, a diferença com o que ocorre no resto do mundo é ainda maior, o que significa uma defasagem em torno de dois a três anos para a situação das empresas nos países desenvolvidos.

O mercado de PCs no Brasil tem evoluído até pouco tempo de forma diferente do mercado internacional. Contudo, a abertura paulatina da reserva de mercado, a progressiva liberação de softwares em conjunto com a própria evolução da tecnologia mundial fazem com que a evolução da oferta de produtos comece a seguir mais de perto as tendências mundiais. A situação é muito dinâmica e as participações relativas dos modelos no mercado estão sendo modificadas rapidamente, como ilustram os diagramas de evolução dos micros PC.

 

Cenários, Ciclos e Tendências

Existem quatro tendências que retratam o cenário atual:

• custo de hardware diminui 30% ao ano: "custo relativo do hardware tende a zero";

• capacidade do hardware cresce 30% ao ano: "capacidade tende a infinito";

• equipamento já é tão pequeno quanto se deseja: limitação é de custo e fundamentalmente ergonométrica e não tecnológica;

hardware está bem à frente do software, que por sua vez está mais à frente ainda do usuário: potencial inexplorado ainda é muito grande.

A análise do custo do hardware é mais complexa, considerando que, na realidade, as reduções de preço acompanham os ciclos de evolução tecnológica. Assim, uma determinada configuração vai tendo seu preço diminuído até o lançamento de um novo modelo que começa a ser comercializado em um patamar semelhante ao do início do modelo anterior.

As evidências dos avanços tecnológicos para a próxima década indicam pelo menos duas convergências tecnológicas importantes. A primeira é a da Informática com as telecomunicações, através da teleinformática. A segunda é a de tecnologias convergentes para os conceitos digitais, que reunidas irão formar a nova estação de trabalho da sociedade informatizada.

Dados, texto, voz, imagem são formas nas quais a informação é representada ou armazenada e portanto são recursos que deverão estar presentes na estação de trabalho do futuro. O tratamento desses recursos converge para o uso de conceitos digitais, viabilizando cada vez mais, tanto técnica como economicamente, a nova estação de trabalho que já começa a aparecer com o rótulo de multimídia.

Antes do final da década, os computadores terão mais de dez vezes a capacidade e velocidade dos atuais. Para micros, algo como dez vezes mais que o 486, e eles serão capazes de trabalhar com uma interface avançada, e não apenas o vídeo e os dispositivos de saída serão modificados, outros dispositivos de entrada como teclado e mouse também sofrerão mudanças profundas. Melhoria de hardware capaz de utilizar multimídia (voz, som, imagem, escrita manual etc.) como meio de entrada/saída e armazenamento de informação.

Os ciclos de evolução e revolução do hardware estão resumidos no gráfico 3 -Ciclo Tecnológico dos Micros - que mostra a passagem dos de 8 bits para o PC, a ruptura que estamos atravessando para micros de 32 bits e a inexorável perspectiva da nova ruptura para equipamentos de 64 bits.

 

 

Em paralelo, ocorre outro ciclo, o do software.

 

A indústria de software

Até o final dos anos 60, a maioria dos fabricantes de hardware costumava desenvolver ou comercializar, em conjunto com o equipamento, o software. Uma espécie de pacote que incluía equipamento e programas. Os fabricantes forneciam o software e os serviços correlatos como parte integrante do hardware e não cobravam diretamente por esses serviços, mas de forma indireta, embutindo no aluguel ou preço do equipamento. Como conseqüência, praticamente não existia incentivo para outras empresas produzirem e comercializarem softwares.

Até que a IBM, na década de 60, separou os custos de hardware e de software (unbundling), comercializando seus produtos em dois pacotes separados, cobrando pelo primeiro só o hardware e pelo segundo, o que antes era transparente e até certo ponto compulsório, o software - que engloba programas, treinamento e outros serviços.

A conseqüência dessa mudança mercadológica foi o nascimento da indústria de software. Essa indústria possui atualmente bem mais de 5.000 empresas que comercializam mais de 50.000 produtos e movimentam mais de uma centena de bilhões de dólares.

Como resposta à centralização total sem perspectivas, os fabricantes de hardware e software começam a comercializar produtos que refletem a tendência de descentralização e distribuição dos recursos de processamento. Distribuir os recursos de processamento significa colocar os computadores mais perto das pessoas que os usam, e então interligá-los de tal maneira que eles possam comunicar-se. Essa estratégia, cada vez mais atual com o advento dos micros e da crescente informatização das empresas, e desenhada para aumentar cada vez mais a participação do usuário final no desenvolvimento e operação dos Sistemas de Informação - uma estratégia para viabilizar um crescimento ainda maior no uso de recursos de Informática. No início da década de 90, essa tendência transformou-se no movimento chamado downsizing.

Além da inovação tecnológica, muitos fatores têm contribuído para o crescimento do interesse da interligação de computadores em rede, como: preocupação com aspectos de produtividade e custos de processamento; crescimento da base de micros e sua integração ao processamento da empresa como um todo; tendência de distribuir o processamento; aumento da segurança contra falhas em um sistema central único.

Como resultado da evolução do hardware, três mudanças ocorrem. Primeiro, usuários, especialmente aqueles que vinham enfrentando sistemas difíceis de trabalhar e usar pelos quais haviam esperado anos para receber, começaram a desviar-se do controle do departamento de sistemas. Começaram adquirindo seus próprios sistemas e mais tarde desenvolvendo-os e operando-os em máquinas menores - micros. Segundo, a economia dos sistemas mudou - aumentando muito a faixa de aplicações economicamente viáveis. Terceiro, começa a ficar claro que pequenas máquinas dispersas dificilmente seriam úteis sem comunicação entre si e sem uma estrutura de dados comum. Surge a automação de escritórios, as telecomunicações e as demais Tis - Tecnologias de Informação -como resposta. Emergem a microinformática e a computação pelo usuário final como resultado.

 

 

São atribuídos novos e importantes papéis para SIs - Sistemas de Informação. No início dos anos 80, a principal tarefa de muitos departamentos de SI era tornar a informação disponível. Telecomunicações ganharam interesse pelos problemas de interconexão e troca de informações. Os desenvolvimentos da TI - Tecnologia de Informação - e as mudanças nas atitudes têm provocado rápidas mudanças nos papéis tanto dos profissionais de sistemas como dos usuários. Emerge um novo conceito - o Centro de Informações - voltado para dar suporte à computação pelo usuário final, fornecendo informação e consultoria para usuários.

Por volta de meados da década de 80, alguns novos tipos de implementações de SI atingem resultados sem precedentes - servem de instrumentos para uma mudança na natureza dos negócios e da posição competitiva da empresa -, SI e T1 como instrumento de vantagem competitiva. O papel dos Sis nos negócios revela seu potencial estratégico.

 

Evolução dos softwares para micro

Até o final da década de 70, os microcomputadores usaram predominantemente o Basic (interpretado) e versões para micros de linguagens de terceira geração, normalmente compiladores.

Apesar de poderosas, essas linguagens de terceira geração mantêm a orientação das máquinas grandes: para utilizá-las, é necessário aprender a falar uma das línguas que a máquina entende e a estruturar os pensamentos segundo uma determinada lógica. Ou seja, linguagens orientadas para procedimentos, nas quais pode ser até fácil aprender o vocabulário e a sintaxe da linguagem, mas é difícil e trabalhoso descrever os procedimentos e a estrutura lógica do problema que se quer resolver.

Em 1979, a primeira Planilha Eletrônica é mostrada ao público, o VisiCalc para o Apple II. Seu surgimento é um dos marcos mais importantes na história dos micros. Coincidência ou não, os micros explodiram - já tinham um Sistema Operacional, uma linguagem de programação de terceira geração (Basic da Microsoft) e uma revolucionária de quarta geração (VisiCalc da VisiCorp). A tendência moderna de software é baseada na filosofia de utilização do VisiCalc: o modo de usar o computador deve aproximar-se ao máximo das aplicações e da forma de agir das pessoas. Hoje, centenas de linguagens de quarta geração, chamadas user friendly ou amigáveis ao usuário, estão disponíveis para uma série de aplicações.

Quatro outros programas foram pioneiros no conceito de quarta geração para micros. O WordStar da MicroPro, o primeiro processador de texto. Dois programas da série Visi: VisiFile - gerenciador de arquivos e Vi si Plot/VisiT rend - para construir gráficos e realizar estatísticas simples, e por último o dBase II da Ashton-Tate (hoje Borland) - um gerenciador de arquivos com uma linguagem de consulta.

A IBM, que demorou para entrar no mercado de micros, não podia lançar um equipamento com tecnologia que ficasse logo obsoleta. Lançou o PC com um microprocessador Intel 8088 de 8/16 bits, com maior capacidade de processamento e memória. Novas oportunidades surgiram e de uma certa forma a história se repetiu: precisava-se rapidamente de um novo sistema operacional e de uma nova planilha eletrônica que explorasse os novos recursos e a linguagem de terceira geração não era tão importante - ficou o Basic.

O sistema operacional foi licenciado da Microsoft, o MS-DOS (MicroSoft-Dísfc Operating System), muito parecido com o CP/M. A planilha veio um pouco mais tarde, no final de 1982, com o Lotus 1-2-3 da Lotus.

O segredo da explosão dos micros está no software. Só para se ter uma ideia; existem atualmente mais de 50.000 programas diferentes só para os PCs compatíveis (MS-DOS) como: programas aplicativos, dedicados, linguagens de quarta geração em pacotes integrados, integradores de software. No mercado nacional, os 500 programas para os PCs compatíveis disponíveis em 1986 já eram mais de 1.200 em 1987. Em 1993, são milhares de opções, mesmo sem considerar todas as opções internacionais que, teoricamente, com a abertura de mercado, estariam disponíveis.

A evolução do software e da forma de usar os sistemas não estaria completa, sem se falar do conceito que existe por trás do Macintosh da Apple. Um conceito inspirado no Smalltalk da Xerox e que se preocupa ao extremo com a interface homem-máquina orientada para o objetivo de produzir uma estação de trabalho muito fácil de ser usada, com todos os recursos necessários para tornar-se uma ferramenta poderosa. Um conceito que usa: mouse, ícones, janelas e recursos gráficos, ou seja, um padrão de interface homem-máquina ou mais genericamente: GUI - Graphical User Interface. Uma estratégia que obriga todos os programas desenvolvidos para este ambiente operacional a seguirem rigidamente um padrão. O resultado dessa estratégia é uma consistência que permite a quem aprende a usar um programa, saber usar grande parte de todos os outros programas disponíveis para este ambiente. Em suma, um conceito que indica a direção e a tendência dos novos sistemas.

Da mesma forma que a história dos computadores se confunde com a da IBM e a dos micros com a da Apple, a história do software para micros confunde-se também com a da empresa mais influente e que vem dominando o setor. A Microsoft é a maior empresa de software, um fenômeno de crescimento e faturamento na economia mundial (ver tabela 6).

 

 

A estimativa para o exercício de 1994 é de faturar perto de 5 bilhões de dólares, continuar a ter um lucro cie 25% e crescer 40% ao ano. Sua receita é superior à soma dos seis maiores concorrentes. Há mais de 12.000 funcionários em 27 países, 20.000 micros e atende a mais de 30.000 chamadas de suporte por dia. Seu valor de mercado é maior que o da IBM e tem uma relação valor e receita da qual nenhuma outra grande empresa chega perto. Seu fundador e principal executivo, Bill Gates, tornou-se o homem mais rico do mundo e criou o lema atual da Microsoft: "Information at your fingertips".

O ciclo de desenvolvimento de novos modelos de processadores e de novas versões de sistemas operacionais sempre teve um ritmo acelerado, como podemos observar na tabela 7.

 

 

O mercado de software e hardware padrão PC no Brasil evoluiu até 1990 de forma diferente do mercado internacional. Contudo, a abertura da reserva de mercado em conjunto com a própria evolução da tecnologia mundial fazem com que a evolução da oferta de produtos comece a seguir as tendências mundiais.

 

Cenários, Ciclos e Tendências

Atualmente, a ruptura tecnológica provocada por interfaces gráficas como o Windows exige a atualização de metas, uma avaliação e atualização da base instalada de equipamentos para servir de plataforma para os novos programas com interface gráfica (ver gráfico 4).

 

 

Existe um conjunto razoável de tendências que podem ser identificadas com maior facilidade. Por exemplo, a fusão do sistema operacional com a interface gráfica em um só programa e ambiente, como acontece desde o início com o Macintosh.

Outros exemplos são:

software cada vez mais complexo internamente, para facilitar o uso e oferecer mais recursos (maior demanda de hardware para processá-los);

software mais versátil e fácil de usar -ajuda e manual inteligentes e on-line -capacidade de ensinar a usar o próprio software, de analisar dúvidas e de aprender tarefas repetitivas; distribuição eletrônica de software - inclusive de documentação, manuais e auto-instrução. Cada vez mais fácil de ser adquirido para grandes empresas; toda linha de produtos de determinados fabricantes já estará disponível no servidor, bastando instalar e pagar após algum tempo. O meio eletrônico de distribuição pode ser por comunicação ou físico, como, por exemplo, um CD-ROM que tem capacidade de armazenar até centenas de softwares completos;

crescente preocupação com interface homem-máquina, com três vertentes:

* padronização dessa interface - por modelo ou família de equipamento;

* múltiplas formas - interfaces múltiplas:

• várias formas diferentes de visualização/ utilização da informação;

• várias formas alternativas de realizar a mesma tarefa;

* fusão de linguagens;

melhoria significativa em linguagem natural, compreensão, tradução, utilização da voz e outros avanços em campos da Inteligência Artificial;

maior disponibilidade de informação digitalizada - tecnologias convergentes para conceitos digitais.

 

Evolução e índices

O estudo de casos reais permite identificar e quantificar diversos índices e parâmetros para planejamento e principalmente verificar como eles estão evoluindo com o tempo, estágio, porte e setor das empresas. Após apresentar o valor médio encontrado no estudo de casos reais e pesquisas nas médias e grandes empresas nacionais (Pesquisa anual do CIA - Centro de Informática Aplicada da FGV), é mostrada a faixa na qual se concentram os valores e comenta-se o tipo de variação usual do índice em função de aspectos característicos das empresas pesquisadas:

Usuário ativo/micro = 2,2 (1,5 a 5,0). A relação entre o número de usuários ativos e os micros instalados na empresa diminui conforme a empresa caminha no processo de informatização e da média atual de 2,2 converge para um valor menor que 2, sendo que valores entre 1,5 e 5,0 usuários ativos/micro são comuns. A base instalada de micros nas empresas nacionais está crescendo muito e este índice médio, que era de três usuários ativos/micro, manteve-se estável por alguns anos até 1988, quando voltou a cair. O índice é inversamente proporcional ao estágio de informatização, e ao porte da empresa - quanto maior o porte ou mais adiantada no processo, menor o índice.

Analista de suporte/micro = 4% (2% a 15%). A evidência empírica sugere um índice próximo de 8% para número de pessoas do Cl (Centro de Informação) pelo total de micros inicial. A média para grandes empresas, em 1993, ficou em 3%. Esse índice tende a evoluir rapidamente e seu comportamento é inversamente proporcional ao estágio de informatização e à base de micros instalada. Depende da estratégia de implementação e da relação usuário ativo/micro - o típico é ficar próximo ou um pouco abaixo de 8% para uma estratégia não muito agressiva e uma relação de três usuários/micro, diminuindo bastante quando a relação cai para menos de 2,2 usuários/micro. Para estratégias mais agressivas e estágios mais avançados do processo, valores abaixo de 4% analistas/micros são comuns. A propósito, o pessoal de CI é em média 10% do total de pessoal em Informática, o que, por sua vez, representa perto de 6% dos funcionários técnicos e administrativos da empresa. Nas fases adiantadas do processo de informatização, o índice tem uma diminuição aparente devido ao fato de que os Analistas de Suporte se transformam em Analistas de Negócio ou exercem este papel e portanto passam a fazer parte do setor, não sendo mais contabilizados como pessoal de Informática.

Usuário/funcionário administrativo = 45% (10% a 99%). Novamente a faixa de variação é ampla. Existem empresas com praticamente 100% dos funcionários técnicos e administrativos sendo usuários. Outras tantas que estão em fases iniciais do processo têm somente 10%. A média vem crescendo ano a ano: em 1987 era de 20%, passou para 30% em 1990, em 1991 para 35% e em 1992 para 40%. Essa média deve ultrapassar 50% antes de 1995. Em 1993, o número de usuários está próximo de 45% do total de funcionários técnicos e administrativos, com diversas empresas apresentando taxas de mais de 60%. O fator mais relevante é a cultura vigente na empresa. Por exemplo, empresas pequenas com idade média dos funcionários relativamente alta tendem a ter um índice bem menor que 40%; por outro lado, empresas com pessoal mais jovem e com tradição de inovação atingem valores até superiores a 75%.

Usuário ativo/usuário treinado = 70% (55% a 80%). Nem todos os usuários treinados tornam-se usuários finais ativos; um terço não utiliza o micro após o treinamento, em média. A taxa de penetração planejada é normalmente maior que 50%, isto é, bem mais de 50% do pessoal técnico e administrativo serão treinados ao longo de todo o processo de informatização. O perfil médio dos usuários tremados costuma resultar em:

* 25% a 35% dos usuários treinados continuam a usar os micros, desenvolvem suas próprias aplicações, têm uma parcela significativa de seu trabalho automatizada e demandam um suporte mais especializado e de recursos avançados das ferramentas;

* 30% a 35% continua a usar os micros, em média uma vez por semana, desenvolve aplicações simples, tem uma parte de seu trabalho automatizada e demanda suporte na estruturação de novas aplicações e no uso das ferramentas padrões;

* 25% a 35% praticamente não usa diretamente os micros, uma parte ainda participa, mas utiliza tipicamente resultados produzidos por outros usuários;

* 5% a 10% torna-se "especialista" e, se for permitido, passa a maior parte do dia utilizando o micro, demanda ferramentas mais sofisticadas e auxilia os demais; em alguns setores, faz o papel do Analista de Suporte e tende a provocar uma descentralização das funções do CI.

 


Clique para ampliar

 

Muitos desses índices podem ser considerados baixos quando comparados com médias internacionais, mas estão crescendo a taxas maiores e já atingem valores significativos.

Os gráficos mostram a evolução de alguns dos índices. O gráfico 5 é um exemplo ilustrativo da evolução da relação de funcionários por teclados e por micros.

 

 

O gráfico 6 mostra a evolução desde 1988 e a tendência para relação usuário/micro na média das empresas e por setor da economia.

 

 

Os dois últimos (gráficos 7 e 8) repetem os índices do primeiro, mas no contexto de evolução para média das empresas e por setor.

 

 

 

 

Existem outros índices utilizados na Administração da Informática. Um dos principais indicadores para o planejamento e comparação com outras empresas é o gasto total/faturamento, isto é, o percentual do faturamento da empresa que é destinado à Informática. Esse percentual depende de vários fatores. Os dois principais são o estágio de informatização e o setor da empresa.

O gasto total é a soma dos gastos com equipamento, instalações, materiais de consumo, gastos com software e gastos com pessoal de sistemas. A composição desses gastos depende dos fatores mencionados e principalmente das Tecnologias de Informação utilizadas. Para microcomputadores, os gastos com hardware e software são equivalentes já para sistemas de maior porte, o gasto com hardware é a menor parcela e vem diminuindo.

Em média os gastos têm crescido mais de 10% ao ano, passando de 1,4%, em 1988, para cerca de 2,3% em 1993. Nesse período, as maiores taxas de crescimento são apresentadas pelas empresas menos informatizadas e pelo setor industrial. A propósito, os índices para os países do Primeiro Mundo são superiores aos nacionais. Por exemplo, em 1991, a média americana foi da ordem de 3,5%, portanto, 80% a mais que a média nacional de 1,9%. Em 1992, a média continuou em cerca de 3,5% e a nacional subiu para 2,1%.

 

Cenário e a Lacuna Cultural

Os avanços da tecnologia de informação ocorrem em tal velocidade que as necessidades surgem a uma velocidade maior que a capacidade de absorver a tecnologia e de atender a essas necessidades que a área de Informática pode ter. Esta situação deixa a nítida impressão de que a área de Informática "atrapalha a organização".

Neste contexto, convém ressaltar mais uma vez que estamos atravessando uma fase de grande transição, agravada pela coincidência de rupturas tecnológicas nos ciclos de evolução do hardware e do software.

A avalanche de novas tecnologias de Informática é tão grande que as empresas e pessoas não têm capacidade de assimilá-las na mesma velocidade, provocando uma grande lacuna cultural, isto é, uma defasagem entre o que está sendo utilizado e o que está disponível. O gráfico 9 ilustra este conceito.

 


Clique para ampliar

 

 


Clique para ampliar

 

Uma estratégia correta para implementar novas tecnologias pode diminuir essa lacuna cultural e colocar a empresa/pessoas em um novo patamar, como mostra o quadro 1, sobre a administração da mudança que utiliza a educação como veículo principal.

 

 

O modelo retrata o mecanismo do processo de implementação de novas tecnologias - em especial a estrutura da atuação de um consultor externo. Inicialmente ele funciona como orientador para diminuir a lacuna cultural e provocar o descongelamento; depois direciona o processo de mudança estimulando ação na direção correta e diminuindo as barreiras e resistências naturais; e em um terceiro estágio funciona como catalisador da institucionalização.

Os objetivos do processo de administração da mudança organizacional representada por novas tecnologias e sistemas são:

• diminuir a lacuna cultural:

* aumentar conhecimento e "descongelar";

* criar vocabulário comum e visão homogênea das aplicações e potenciais TI;

* construir habilidades: técnicas e administrativas; transferir informações;

estimular a ação:

* TI é ao mesmo tempo concreta e abstrata. Os componentes concretos são o hardware e parte do software, que podem ser apresentados clara e explicitamente;

* os componentes abstratos, que freqüentemente são críticos na implementação, não são tão claros e fáceis de ser apresentados, como:

• aspectos psicológicos, organizacionais e políticos;

• o processo de administração e a sua redefinição;

• as resistências à mudança - que devem ser aliviadas;

• envolvimento do usuário - criação de um ambiente propício para envolvimento e confiança.

 

CONCLUSÃO

A relação de tendências, impactos e desenvolvimentos futuros, como os citados ao longo do texto, são baseados no estudo do processo de evolução. Contudo, qualquer lista desse tipo é limitada ao conhecimento atual e não inclui breakthroughs, os grandes saltos que muito provavelmente ocorrerão e eventualmente causarão efeitos mais profundos que os significativos já visualizados com o conhecimento atual.

A indústria de Informática está na sua infância. A indústria de software começou há cerca de 25 anos; os micros há pouco mais de 15 anos e os futurólogos são unânimes ao afirmar que só vimos a ponta de um iceberg. Os impactos e eventos significativos ainda estão por vir.

 

 

BIBLIOGRAFIA SUMPLEMENTAR

MEIRELLES. Fernando S. Informática: novas aplicações com microcomputadores. São Paulo: McGraw-Hill/Makron Books, 1994, 2ª edição atualizada e ampliada.

CIA - Centro de Informática Aplicada - Pesquisa Anual - Administração de Recursos de Informática. 4ª edição de 1993 e resultados preliminares da 5ª edição de 1994, São Paulo, FGV.

 

 

Artigo recebido pela Redação da RAE em abril/94, avaliado e aprovado para publicação em maio/94.

 

Creative Commons License This is an Open Access article distributed under the terms of the Creative Commons Attribution License, which permits unrestricted use, distribution, and reproduction in any medium, provided the original work is properly cited.