O presente artigo busca conduzir o leitor a uma reflexão sobre a complexidade tecnológica autotrófica (da Bio: Organismo que a partir de seus componentes fabrica seu próprio alimento) uma vez que, na busca de resultados que objetivam oferecer simplicidade,as tecnologias e métodos atualmente utilizados para conceber, desenvolver e manter sistemas, desde os mais simples até os mais complexos, ocultam do usuário final uma complexa teia de componentes inter-relacionados que elevam sobremaneira os tempos de entrega (delivery) e os custos de desenvolvimento, produção, manutenção e evolução, gerando inúmeros pontos de falha que contribuem para a imagem negativa que se tem da informática atualmente.
Seria então possível conceber, desenvolver e manter sistemas simples ou complexos, com qualquer escala (tamanho), com garantias de documentação, segurança e performance, em menos tempo e a custos menores, para que se tornem à prova de futuro, dependendo menos de estruturas tecnológicas complementares para funcionarem ainda atendendo as expectativas do negócio?”.
Para construir uma resposta consistente a esse problema, que aponte para uma solução com um escopo delimitado e que forneça um caminho de fato viável, faz-se necessário, de início, contornar a complexidade do cenário tecnológico atual apresentando, de forma objetiva e simplificada, os pontos entendidos como estruturantes para a compreensão do contexto presente do ciclo de vida de sistemas informatizados.
O Iceberg tecnológico
Um brado de terror, ou algo parecido com isso, deve ter sido o que algum marujo do Titanic disse ao avistar o imenso bloco de gelo, que o levou ao mais famoso naufrágio da história da humanidade.
É quase certo que o timoneiro, ao ser informado e tomar consciência da situação, temia a colisão do navio com aquele bloco de gelo, pela perspectiva de seu tamanho sobre a superfície, desconhecendo talvez que, o que de fato levou ao naufrágio àquele que era tido à época como insubmergível, foi a enorme ferida aberta no casco submerso do navio, pela gigantesca força da parte também submersa do iceberg.
A correlação mental desta imagem com a complexidade tecnológica, bem representa o cenário instaurado nos inúmeros ambientes de suporte tecnológico aos negócios nos dias atuais. Assim como o timoneiro, o usuário de sistemas comum desconhece a parte oculta do iceberg tecnológico, como também o esforço e o custo para mantê-lo.
Sob a ótica desse usuário comum, que quer se valer de recursos tecnológicos para dinamizar seu negócio, sua visibilidade tecnológica dificilmente ultrapassa o que lhe é apresentado em uma estação de trabalho, sob a forma de um ou mais sistemas, desconhecendo toda a complexidade “submersa” e necessária para que este possa, de fato, usufruir dos benefícios esperados. A imagem abaixo tenta representar o que de fato e em linhas gerais, separa o visível do invisível a partir da ótica dos custos da tecnologia.

Se observada com cuidado, a imagem acima está orientada para os componentes da infra-estrutura de TI (Tecnologia da Informação), quase todos absolutamente necessários, em maior ou menor grau, dependendo da dimensão e criticidade do negócio a ser sustentado tecnologicamente. Desta forma, a imagem mental proposta só se torna completa quando são oferecidos maiores detalhes sobre a composição do item Datacenter, que seria o coração (ou core) da parte submersa do iceberg, notadamente em Arquiteturas de SI (de Sistemas Informatizados) centralizadas.
A Babel Tecnológica
Na grande maioria dos casos, é no Datacenter que residem os principais componentes que estabelecem a(s) Arquitetura(s) Tecnológica(s), também denominada tecnicamente como frameworks, e onde são processados os sistemas a serem utilizados pelos usuários.
Ao longo de mais de meio século de desenvolvimento da Tecnologia da Informação, centenas, talvez milhares de componentes tecnológicos de hardware e software, foram desenvolvidos e colocados em produção, para suporte da criação de sistemas voltados aos mais variados tipos de negócios.
Arquiteturas, linguagens, protocolos, sistemas gerenciadores de dados, geradores, interpretadores e gerenciadores de códigos, gerenciadores de filas, ferramentas de integração como as utilizadas para extração e transformação de dados (ETL), Web Servers, Data Warehouse, Business Intelligence e os famosos ERPs (sistemas integrados de gestão empresarial) são alguns dos muitos exemplos.
Para a maioria dos casos, deve-se considerar a necessidade de que sejam criadas amadas de integração intra e/ou inter arquiteturais, como no caso de frameworks complementares de segurança, e outros mais distintos para tratamento entre canais de relacionamento on-line (Front-Office) e estruturas de retaguarda off-line (Back Office).
É certo que, com o passar do tempo, muitos componentes simplesmente deixaram de existir, seja por sua obsolescência técnica, seja pela falta de investimentos, por problemas de timing ou marketing, pela sedução a novos modismos ou mesmo pela falta de condições destes para atendimento ao futuro imediato que a dinâmica dos negócios a estes impôs.
Nestes casos, caros processos de migração, conversão ou substituição tecnológica foram e vem sendo empreendidos, em sua maioria, sem o devido planejamento, com elevados custos e com resultados muitas vezes frustrantes. De outro lado, também é certo considerar que outros componentes se tornaram padrões de fato, seja por sua efetividade no atendimento ao negócio, seja pelos elevados investimentos relacionados com a substituição, ou pelo poder econômico e de marketing de seus fornecedores.
Nestes casos, observa-se a opção por sua manutenção, adicionando-lhes camadas de integração ou de conversação com as novas tecnologias e novos canais de relacionamento. Ainda que as novas partes a serem integradas pareçam mais baratas, se observado o todo, vê-se uma enorme e cara complexidade. Abaixo vemos uma representação de Arquitetura Tecnológica genérica, que pode ser um exemplo do que estaria contido no coração de um Datacenter.

Talvez o melhor exemplo recente a ser dado para o incremento da complexidade, seja o advento e o impacto da Internet nos negócios e na vida das pessoas. Trazendo a superfície um canal de relacionamento absolutamente inédito até o final da década de 1990, a Internet vem exigindo fortes movimentos para criação de novas soluções, seja pela adaptação ou pela substituição do que se costuma chamar de Legado.
Em linhas gerais, tudo que se encontra em produção pode ser considerado como Legado, pelo simples fato de já não ser mais entendido como novo. Muitos vêem os componentes tecnológicos e sistemas Legados como feudos particulares, outros os percebem como ameaças, alguns como oportunidades e outros ainda, simplesmente como “aquilo que de fato funciona”.
A Teoria das Ondas
Para exemplificar a dinâmica da gênese, consolidação e morte das tecnologias na citada Babel Tecnológica, pode-se exercitar uma imagem mental representada por um mar revolto (vulgarmente conhecido como “de ressaca”) que, ao chegar à praia, pode fazer entender melhor, através do choque de suas ondas, a realidade da convulsão tecnológica instaurada na área da Tecnologia da Informação.
O que se observaria nessa imagem mental seriam ondas “engolindo” ondas; ondas em vários sentidos se chocando violentamente umas contra outras, ondas que parecem à distância portentosas, mas que ao chegarem à praia, simplesmente deslizam serenamente para a morte. O melhor exemplo concreto de uma onda tecnológica é o conceito criado em 1995 pelo Gartner Group denominado Hype Cycle.
Um Hype Cycle é um gráfico (muito parecido com uma onda) que busca representar a maturidade, adoção e aplicação ao negócio de uma tecnologia específica.
Desde 1995, o Gartner Group tem usado essa representação para caracterizar o super entusiasmo (ou Hype) do mercado e o subseqüente desapontamento que tipicamente acontece com a introdução de novas tecnologias. Um Hype Cycle típico tem cinco fases, conforme o exemplo mostrado na figura abaixo.

A primeira fase, denominada “Gatilho Tecnológico” corresponde ao lançamento de uma nova tecnologia ou produto, ou ainda outro evento que gere significante mídia ou interesse da comunidade de TI.
A segunda fase, denominada “Pico das Expectativas Infladas” corresponde a um frenesi ou publicidade tipicamente gerada por um super entusiasmo ou expectativas não realistas. Neste ponto encontram-se algumas aplicações da tecnologia que terão sucesso, ao tempo em que outras são tipicamente fadadas a um rápido descarte.
A terceira fase, denominada “Vale das Desilusões” é o momento em que a tecnologia tende a falhar no desafio de ir ao encontro das expectativas geradas na fase anterior e rapidamente se tornam fora de moda. Conseqüentemente a mídia especializada usualmente retira seu foco de interesse da mesma.
A quarta fase, denominada “Ladeira do Iluminismo” é o momento em que, ao tempo em que a mídia especializada pára de cobrir a tecnologia, alguns negócios continuam empolgados com a mesma e, pela ampliação de seu entendimento, experimentam benefícios e aplicações práticas daquela tecnologia.
A quinta e última fase, denominada “Platô de Produtividade”, corresponde ao momento em que a tecnologia em questão alcança seus objetivos e benefícios práticos, se tornando largamente demonstrada e aceita. A tecnologia torna-se gradativamente mais estável e evolui para uma segunda e/ou terceira gerações. A altura final do platô varia de acordo com o estágio de amplitude de aplicação ou dos benefícios gerados para determinados nichos de mercado.
Isto uma vez colocado e entendido, o que se deve exercitar mentalmente são centenas, talvez milhares de Hype-Cycles, evoluindo e/ou involuindo como ondas interagindo entre si, seja de forma simbiôntica, seja de forma canibalesca, convivendo ou se confrontando com estruturas Legadas consolidadas ou em
decomposição.
Cada onda busca impor-se como um novo padrão a ser adotado pelo (ou por parte) do mercado, tornando cada vez mais complexo o ambiente de TI em nosso tempo, ainda mais se for considerada a velocidade crescente dessas ondas e de suas “fases”, como também a força embarcada em outras, as quais poderiam até ser apelidá-las de tsunamis.
Os especialistas especializados
A conseqüência direta e penosa do que foi até aqui apresentado é que, de conformidade com a lógica da nova Era da Informação, se torna literalmente impossível para uma única pessoa dispor de todo o conhecimento técnico sobre cada parte componente das complexas soluções tecnológicas atualmente adotadas. Há que se dividir; há que se fatiar.
Como as máquinas e os sistemas não atingiram a maturidade “hollywoodiana” de auto-gestão, esta árdua tarefa fica para seres humanos, com todas as suas imperfeições, que alimentam ainda mais toda essa complexidade. Para dispor de um controle melhor, como o todo está sendo dividido em partes, cada uma destas se especializa e exige, per si, profissionais altamente capacitados e caros, para atuar
na sua gestão operacional e tática. Daí, surgem os especialistas em cada tipo de tecnologia que compõe o todo.
Já não existe mais espaço para o velho médico de família generalista que atendia a domicílio e resolvia todos os problemas com ungüentos e pílulas mágicas. Como os problemas se tornaram muito complexos, cada qual abre seu nicho de especialização e seu caráter “proprietário”. Por mais aberta que seja uma solução tecnológica, ela é em si proprietária, possuindo seus códigos próprios e formas de manejo personalistas até mesmo para garantir seu caráter aberto e comunicar-se com “as outras tecnologias”. Mesmos os decantados ERPs, amados por uns e odiados por outros tantos, que prometem a partir da adoção de melhores práticas (de quem?), resolver todos os problemas do negócio, uma vez em sendo adotados, criam em torno de si um mundo tecnológico à parte, que escraviza seus usuários.
Minha abordagem aqui não se presta a condenar a especialização, vez que se trata de uma saída eficiente para um mundo globalizado, mas tão somente, reconhecer que esta é fruto da complexidade de nosso tempo e das soluções que estão sendo construídas. São, portanto, inegáveis os avanços derivados da especialização. Desta forma, o que se pretende ressaltar neste ponto é a multiplicação do que se observa - notadamente no cenário de TI - dos “especialistas especializados”.
Explicando o termo cunhado, temos que hoje não basta ser especialista em uma disciplina de TI, é necessário se especializar ainda mais em uma determinada marca. Não basta saber programar, é necessário especializar-se em determinadalinguagem. É como ter que se render à clássica imagem de Charles Chaplin, apertando parafusos como um autômato em “Tempos Modernos”, uma de suas mais
brilhantes obras cinematográficas.
Quando se associa esta abordagem a Teoria das Ondas, observa-se uma espécie de convulsão, exigindo muitas vezes por questão de sobrevivência, que todos corram atrás de se manterem sempreatualizados diante de novas ondas tecnológicas que, potencialmente, se candidatam a substituir suas antecessoras
que, por sua vez, consomem a quase totalidade de tempo laboral das pessoas.
O desgaste humano dos profissionais de TI não é novidade. Os mais entusiastas passam quase 24 horas do seu dia, de alguma forma, "plugados” e preocupados com a tecnologia. Ora, mas esta não adveio para nos proporcionar mais conforto e melhorar nossa qualidade de vida? Inúmeros são os exemplos de técnicos que não suportam essa rotina por mais de 10 a 15 anos. Buscam aproveitar ao máximo os frutos de determinada onda tecnológica, tentando alcançar determinado nível de independência financeira e abandonar o barco, para se refestelarem à sombra de um coqueiro na praia, satisfeito talvez em viver da venda de sanduíches naturais ou coisa parecida.
Aqueles que não conseguem chegar à praia tendem a se submeter à rotina do turnover, pulando de empresa em empresa, por não mais suportar a complexidade que os oprime, ou procuram uma nova empresa que lhes garanta a continuidade da onda tecnológica que os acomoda. Outros profissionais são simplesmente descartados por outros (normalmente mais jovens), que estejam mais afinados com a nova onda ou disponham de energia para dar continuidade ao que se deve manter atualizado ou converter ou desenvolver ou ainda redesenvolver. Sem dúvida, com base nas tecnologia que de fato “vingam” uma enormidade de conhecimento é gerado sob a forma de regras de negócios, mas seriam essas regras não redundantes? Estariam atomizadas (ou componentizadas) com a melhor performance possível? Estariam as mesmas regras devidamente catalogadas e documentadas para a compreensão dos outros?
O problema da Documentação
Diante de tanta complexidade, pressões pelo cumprimento de prazos muitas vezes mal dimensionados, mudanças tardias de escopo que devem ser acatadas estourando os orçamentos; como garantir que os sistemas contem com documentação de qualidade e que a mesma se mantenha atualizada durante todo o ciclo de vida dos mesmos?
A importância da documentação sempre tem sido relegada ao segundo (às vezes ao último) plano, no processo de desenvolvimento e manutenção de sistemas. São inúmeros os exemplos de sistemas construídos sem a observância de métodos consistentes, contando com uma documentação limitada ao que os programadores registram nos códigos fontes.
A conseqüência da falta de uma documentação adequada se reflete em projetos mal construídos e de difícil manutenção. Assumir um projeto em sua fase de desenvolvimento ou a manutenção de um sistema, sem adequada documentação é como adentrar a uma caverna escura, úmida e desconhecida, munido apenas de uma caixa de fósforos. É preciso organizar esse caos. Mas como?
Do caos a ordem caótica. Porque Projetos de TI ainda falham tanto?
A indústria de software, desde o seu início, sofreu e ainda sofre diversos problemas que deram início a um contínuo processo de descrédito da área de Informática. Essa crise foi denominada desde o seu início como “A Crise do Software”. Esse termo é aceito por uns e contestado por outros que preferem dizer que o que ocorreu e ainda ocorre é uma “Aflição Crônica” na indústria de software . Independente do termo empregado, os problemas com a indústria de software ainda estão presentes nos dias atuais, sendo que os motivos é que foram alterados com o passar dos tempos.
Para tentar reduzir esses problemas, e atender a disciplina de Engenharia de Software, organismos internacionais iniciaram movimentos visando à criação de normas e padrões para auxiliar as empresas produtoras de software, no objetivo de conseguirem criar seus produtos dentro do prazo e custo estipulados, com um padrão de qualidade que atenda às expectativas do usuário e cliente do software.
Dentre esses organismos destacam-se:

Com os dados demonstrados no gráfico conclui-se que, apesar da melhora obtida com a utilização das normas e de um Gerenciamento mais efetivo dos projetos, a indústria de software ainda está com um grau de eficiência muito aquém do desejado e muito inferior a outras áreas de negócios, onde projetos com êxito representam um percentual muito mais alto.
Por outro lado, na tabela que se segue, tem-se que a maioria do desenvolvimento (36%) ainda é realizada utilizando linguagens e métodos tradicionais.

O que explicaria então uma evolução tão tímida ao longo de tantos anos com a aplicação de normas de qualidade para o desenvolvimento de softwares? Recorrendo ao pensamento de Domenico De Masi, pode-se perceber claramente que “as máquinas mudam (ou evoluem) muito mais velozmente que os hábitos, as mentalidades e as normas”. Quanto mais complexo se torna o trabalho, mais complexas se tornam as normas para organizá-lo, e existe uma complexidade intrínseca também em absorver e aplicar as novas normas que competem entre si para demonstrar maior eficiência ou efetividade. Daí surge toda uma indústria de certificações de qualidade.
Apesar dos avanços da sociedade pós-industrial, as organizações e mesmo as atitudes humanas que ainda imperam, são aquelas da era industrial. As dificuldades se agigantam quando novas técnicas e métodos moldam algo para o qual, ou não se dispõe de perfis preparados ou, de fato, não existe suporte realístico para sua execução. O fato é que a tecnologia evolui com a velocidade da luz enquanto os seres humanos andam a passos de tartaruga.
Reduzir a complexidade no cenário de TI adotando novos paradigmas é, então, uma das chaves para minimizar os efeitos das frustrações modernas relacionadas ao não atendimento a prazos e orçamentos em projetos de TI.
O resumo da Ópera
Observa-se, no dia a dia prático e na grande maioria das vezes, que o negócio corre atrás dos concorrentes, enquanto que a TI corre atrás do negócio, sem dispor de especificações claras. Feito um sistema e colocado em produção, via de regra o negócio não se reconhece em sua “versão tecnológica” e com isso aumentam as falhas, o retrabalho, o turnover e o custeio. A TI “resolve” o problema oferecendo muitas vezes mais complexidade. Diante de novos fracassos diminuem a credibilidade, os recursos e as receitas. O negócio, querendo se perpetuar anseia por sistemas à prova de Futuro!
Apesar de existirem muitos outros pontos que poderiam ser abordados para caracterizar o contexto que envolve o problema alvo deste artigo, a questão central reside em separar o negócio de suas formas de implementação da forma mais radical possível. De outro lado, essa separação só se faz possível ao aproximar usuários e técnicos pelo uso de uma linguagem mais natural e conceber um framework de SI mais simples, capaz de promover a “desconstrução” da complexidade, gera a expectativa que esse movimento derive num ciclo virtuoso de simplificações a ponto de tornar os processos mais automáticos, ágeis e baratos, colocando o ser humano no seu devido lugar, o de conceber e criar.

Seria então possível conceber, desenvolver e manter sistemas simples ou complexos, com qualquer escala (tamanho), com garantias de documentação, segurança e performance, em menos tempo e a custos menores, para que se tornem à prova de futuro, dependendo menos de estruturas tecnológicas complementares para funcionarem ainda atendendo as expectativas do negócio?”.
Para construir uma resposta consistente a esse problema, que aponte para uma solução com um escopo delimitado e que forneça um caminho de fato viável, faz-se necessário, de início, contornar a complexidade do cenário tecnológico atual apresentando, de forma objetiva e simplificada, os pontos entendidos como estruturantes para a compreensão do contexto presente do ciclo de vida de sistemas informatizados.
O Iceberg tecnológico
Um brado de terror, ou algo parecido com isso, deve ter sido o que algum marujo do Titanic disse ao avistar o imenso bloco de gelo, que o levou ao mais famoso naufrágio da história da humanidade.
É quase certo que o timoneiro, ao ser informado e tomar consciência da situação, temia a colisão do navio com aquele bloco de gelo, pela perspectiva de seu tamanho sobre a superfície, desconhecendo talvez que, o que de fato levou ao naufrágio àquele que era tido à época como insubmergível, foi a enorme ferida aberta no casco submerso do navio, pela gigantesca força da parte também submersa do iceberg.
A correlação mental desta imagem com a complexidade tecnológica, bem representa o cenário instaurado nos inúmeros ambientes de suporte tecnológico aos negócios nos dias atuais. Assim como o timoneiro, o usuário de sistemas comum desconhece a parte oculta do iceberg tecnológico, como também o esforço e o custo para mantê-lo.
Sob a ótica desse usuário comum, que quer se valer de recursos tecnológicos para dinamizar seu negócio, sua visibilidade tecnológica dificilmente ultrapassa o que lhe é apresentado em uma estação de trabalho, sob a forma de um ou mais sistemas, desconhecendo toda a complexidade “submersa” e necessária para que este possa, de fato, usufruir dos benefícios esperados. A imagem abaixo tenta representar o que de fato e em linhas gerais, separa o visível do invisível a partir da ótica dos custos da tecnologia.

Se observada com cuidado, a imagem acima está orientada para os componentes da infra-estrutura de TI (Tecnologia da Informação), quase todos absolutamente necessários, em maior ou menor grau, dependendo da dimensão e criticidade do negócio a ser sustentado tecnologicamente. Desta forma, a imagem mental proposta só se torna completa quando são oferecidos maiores detalhes sobre a composição do item Datacenter, que seria o coração (ou core) da parte submersa do iceberg, notadamente em Arquiteturas de SI (de Sistemas Informatizados) centralizadas.
A Babel Tecnológica
Na grande maioria dos casos, é no Datacenter que residem os principais componentes que estabelecem a(s) Arquitetura(s) Tecnológica(s), também denominada tecnicamente como frameworks, e onde são processados os sistemas a serem utilizados pelos usuários.
Ao longo de mais de meio século de desenvolvimento da Tecnologia da Informação, centenas, talvez milhares de componentes tecnológicos de hardware e software, foram desenvolvidos e colocados em produção, para suporte da criação de sistemas voltados aos mais variados tipos de negócios.
Arquiteturas, linguagens, protocolos, sistemas gerenciadores de dados, geradores, interpretadores e gerenciadores de códigos, gerenciadores de filas, ferramentas de integração como as utilizadas para extração e transformação de dados (ETL), Web Servers, Data Warehouse, Business Intelligence e os famosos ERPs (sistemas integrados de gestão empresarial) são alguns dos muitos exemplos.
Para a maioria dos casos, deve-se considerar a necessidade de que sejam criadas amadas de integração intra e/ou inter arquiteturais, como no caso de frameworks complementares de segurança, e outros mais distintos para tratamento entre canais de relacionamento on-line (Front-Office) e estruturas de retaguarda off-line (Back Office).
É certo que, com o passar do tempo, muitos componentes simplesmente deixaram de existir, seja por sua obsolescência técnica, seja pela falta de investimentos, por problemas de timing ou marketing, pela sedução a novos modismos ou mesmo pela falta de condições destes para atendimento ao futuro imediato que a dinâmica dos negócios a estes impôs.
Nestes casos, caros processos de migração, conversão ou substituição tecnológica foram e vem sendo empreendidos, em sua maioria, sem o devido planejamento, com elevados custos e com resultados muitas vezes frustrantes. De outro lado, também é certo considerar que outros componentes se tornaram padrões de fato, seja por sua efetividade no atendimento ao negócio, seja pelos elevados investimentos relacionados com a substituição, ou pelo poder econômico e de marketing de seus fornecedores.
Nestes casos, observa-se a opção por sua manutenção, adicionando-lhes camadas de integração ou de conversação com as novas tecnologias e novos canais de relacionamento. Ainda que as novas partes a serem integradas pareçam mais baratas, se observado o todo, vê-se uma enorme e cara complexidade. Abaixo vemos uma representação de Arquitetura Tecnológica genérica, que pode ser um exemplo do que estaria contido no coração de um Datacenter.

Talvez o melhor exemplo recente a ser dado para o incremento da complexidade, seja o advento e o impacto da Internet nos negócios e na vida das pessoas. Trazendo a superfície um canal de relacionamento absolutamente inédito até o final da década de 1990, a Internet vem exigindo fortes movimentos para criação de novas soluções, seja pela adaptação ou pela substituição do que se costuma chamar de Legado.
Em linhas gerais, tudo que se encontra em produção pode ser considerado como Legado, pelo simples fato de já não ser mais entendido como novo. Muitos vêem os componentes tecnológicos e sistemas Legados como feudos particulares, outros os percebem como ameaças, alguns como oportunidades e outros ainda, simplesmente como “aquilo que de fato funciona”.
A Teoria das Ondas
Para exemplificar a dinâmica da gênese, consolidação e morte das tecnologias na citada Babel Tecnológica, pode-se exercitar uma imagem mental representada por um mar revolto (vulgarmente conhecido como “de ressaca”) que, ao chegar à praia, pode fazer entender melhor, através do choque de suas ondas, a realidade da convulsão tecnológica instaurada na área da Tecnologia da Informação.
O que se observaria nessa imagem mental seriam ondas “engolindo” ondas; ondas em vários sentidos se chocando violentamente umas contra outras, ondas que parecem à distância portentosas, mas que ao chegarem à praia, simplesmente deslizam serenamente para a morte. O melhor exemplo concreto de uma onda tecnológica é o conceito criado em 1995 pelo Gartner Group denominado Hype Cycle.
Um Hype Cycle é um gráfico (muito parecido com uma onda) que busca representar a maturidade, adoção e aplicação ao negócio de uma tecnologia específica.
Desde 1995, o Gartner Group tem usado essa representação para caracterizar o super entusiasmo (ou Hype) do mercado e o subseqüente desapontamento que tipicamente acontece com a introdução de novas tecnologias. Um Hype Cycle típico tem cinco fases, conforme o exemplo mostrado na figura abaixo.

A primeira fase, denominada “Gatilho Tecnológico” corresponde ao lançamento de uma nova tecnologia ou produto, ou ainda outro evento que gere significante mídia ou interesse da comunidade de TI.
A segunda fase, denominada “Pico das Expectativas Infladas” corresponde a um frenesi ou publicidade tipicamente gerada por um super entusiasmo ou expectativas não realistas. Neste ponto encontram-se algumas aplicações da tecnologia que terão sucesso, ao tempo em que outras são tipicamente fadadas a um rápido descarte.
A terceira fase, denominada “Vale das Desilusões” é o momento em que a tecnologia tende a falhar no desafio de ir ao encontro das expectativas geradas na fase anterior e rapidamente se tornam fora de moda. Conseqüentemente a mídia especializada usualmente retira seu foco de interesse da mesma.
A quarta fase, denominada “Ladeira do Iluminismo” é o momento em que, ao tempo em que a mídia especializada pára de cobrir a tecnologia, alguns negócios continuam empolgados com a mesma e, pela ampliação de seu entendimento, experimentam benefícios e aplicações práticas daquela tecnologia.
A quinta e última fase, denominada “Platô de Produtividade”, corresponde ao momento em que a tecnologia em questão alcança seus objetivos e benefícios práticos, se tornando largamente demonstrada e aceita. A tecnologia torna-se gradativamente mais estável e evolui para uma segunda e/ou terceira gerações. A altura final do platô varia de acordo com o estágio de amplitude de aplicação ou dos benefícios gerados para determinados nichos de mercado.
Isto uma vez colocado e entendido, o que se deve exercitar mentalmente são centenas, talvez milhares de Hype-Cycles, evoluindo e/ou involuindo como ondas interagindo entre si, seja de forma simbiôntica, seja de forma canibalesca, convivendo ou se confrontando com estruturas Legadas consolidadas ou em
decomposição.
Cada onda busca impor-se como um novo padrão a ser adotado pelo (ou por parte) do mercado, tornando cada vez mais complexo o ambiente de TI em nosso tempo, ainda mais se for considerada a velocidade crescente dessas ondas e de suas “fases”, como também a força embarcada em outras, as quais poderiam até ser apelidá-las de tsunamis.
Os especialistas especializados
A conseqüência direta e penosa do que foi até aqui apresentado é que, de conformidade com a lógica da nova Era da Informação, se torna literalmente impossível para uma única pessoa dispor de todo o conhecimento técnico sobre cada parte componente das complexas soluções tecnológicas atualmente adotadas. Há que se dividir; há que se fatiar.
Como as máquinas e os sistemas não atingiram a maturidade “hollywoodiana” de auto-gestão, esta árdua tarefa fica para seres humanos, com todas as suas imperfeições, que alimentam ainda mais toda essa complexidade. Para dispor de um controle melhor, como o todo está sendo dividido em partes, cada uma destas se especializa e exige, per si, profissionais altamente capacitados e caros, para atuar
na sua gestão operacional e tática. Daí, surgem os especialistas em cada tipo de tecnologia que compõe o todo.
Já não existe mais espaço para o velho médico de família generalista que atendia a domicílio e resolvia todos os problemas com ungüentos e pílulas mágicas. Como os problemas se tornaram muito complexos, cada qual abre seu nicho de especialização e seu caráter “proprietário”. Por mais aberta que seja uma solução tecnológica, ela é em si proprietária, possuindo seus códigos próprios e formas de manejo personalistas até mesmo para garantir seu caráter aberto e comunicar-se com “as outras tecnologias”. Mesmos os decantados ERPs, amados por uns e odiados por outros tantos, que prometem a partir da adoção de melhores práticas (de quem?), resolver todos os problemas do negócio, uma vez em sendo adotados, criam em torno de si um mundo tecnológico à parte, que escraviza seus usuários.
Minha abordagem aqui não se presta a condenar a especialização, vez que se trata de uma saída eficiente para um mundo globalizado, mas tão somente, reconhecer que esta é fruto da complexidade de nosso tempo e das soluções que estão sendo construídas. São, portanto, inegáveis os avanços derivados da especialização. Desta forma, o que se pretende ressaltar neste ponto é a multiplicação do que se observa - notadamente no cenário de TI - dos “especialistas especializados”.
Explicando o termo cunhado, temos que hoje não basta ser especialista em uma disciplina de TI, é necessário se especializar ainda mais em uma determinada marca. Não basta saber programar, é necessário especializar-se em determinadalinguagem. É como ter que se render à clássica imagem de Charles Chaplin, apertando parafusos como um autômato em “Tempos Modernos”, uma de suas mais
brilhantes obras cinematográficas.
Quando se associa esta abordagem a Teoria das Ondas, observa-se uma espécie de convulsão, exigindo muitas vezes por questão de sobrevivência, que todos corram atrás de se manterem sempreatualizados diante de novas ondas tecnológicas que, potencialmente, se candidatam a substituir suas antecessoras
que, por sua vez, consomem a quase totalidade de tempo laboral das pessoas.
O desgaste humano dos profissionais de TI não é novidade. Os mais entusiastas passam quase 24 horas do seu dia, de alguma forma, "plugados” e preocupados com a tecnologia. Ora, mas esta não adveio para nos proporcionar mais conforto e melhorar nossa qualidade de vida? Inúmeros são os exemplos de técnicos que não suportam essa rotina por mais de 10 a 15 anos. Buscam aproveitar ao máximo os frutos de determinada onda tecnológica, tentando alcançar determinado nível de independência financeira e abandonar o barco, para se refestelarem à sombra de um coqueiro na praia, satisfeito talvez em viver da venda de sanduíches naturais ou coisa parecida.
Aqueles que não conseguem chegar à praia tendem a se submeter à rotina do turnover, pulando de empresa em empresa, por não mais suportar a complexidade que os oprime, ou procuram uma nova empresa que lhes garanta a continuidade da onda tecnológica que os acomoda. Outros profissionais são simplesmente descartados por outros (normalmente mais jovens), que estejam mais afinados com a nova onda ou disponham de energia para dar continuidade ao que se deve manter atualizado ou converter ou desenvolver ou ainda redesenvolver. Sem dúvida, com base nas tecnologia que de fato “vingam” uma enormidade de conhecimento é gerado sob a forma de regras de negócios, mas seriam essas regras não redundantes? Estariam atomizadas (ou componentizadas) com a melhor performance possível? Estariam as mesmas regras devidamente catalogadas e documentadas para a compreensão dos outros?
O problema da Documentação
Diante de tanta complexidade, pressões pelo cumprimento de prazos muitas vezes mal dimensionados, mudanças tardias de escopo que devem ser acatadas estourando os orçamentos; como garantir que os sistemas contem com documentação de qualidade e que a mesma se mantenha atualizada durante todo o ciclo de vida dos mesmos?
A importância da documentação sempre tem sido relegada ao segundo (às vezes ao último) plano, no processo de desenvolvimento e manutenção de sistemas. São inúmeros os exemplos de sistemas construídos sem a observância de métodos consistentes, contando com uma documentação limitada ao que os programadores registram nos códigos fontes.
A conseqüência da falta de uma documentação adequada se reflete em projetos mal construídos e de difícil manutenção. Assumir um projeto em sua fase de desenvolvimento ou a manutenção de um sistema, sem adequada documentação é como adentrar a uma caverna escura, úmida e desconhecida, munido apenas de uma caixa de fósforos. É preciso organizar esse caos. Mas como?
Do caos a ordem caótica. Porque Projetos de TI ainda falham tanto?
A indústria de software, desde o seu início, sofreu e ainda sofre diversos problemas que deram início a um contínuo processo de descrédito da área de Informática. Essa crise foi denominada desde o seu início como “A Crise do Software”. Esse termo é aceito por uns e contestado por outros que preferem dizer que o que ocorreu e ainda ocorre é uma “Aflição Crônica” na indústria de software . Independente do termo empregado, os problemas com a indústria de software ainda estão presentes nos dias atuais, sendo que os motivos é que foram alterados com o passar dos tempos.
Para tentar reduzir esses problemas, e atender a disciplina de Engenharia de Software, organismos internacionais iniciaram movimentos visando à criação de normas e padrões para auxiliar as empresas produtoras de software, no objetivo de conseguirem criar seus produtos dentro do prazo e custo estipulados, com um padrão de qualidade que atenda às expectativas do usuário e cliente do software.
Dentre esses organismos destacam-se:
- International Organization for Standardization – ISO (Organização Internacional para Padronização);
- International Electrotechnical Commission – IEC – Software Engineering Institute - que se inspirou no livro “Quality is Free” [Crosby1979] para a criação do Capability Maturity Model for Software (CMM) [Paulk1995].
- Project Management Institute – PMI;
- Institute of Electrical and Eletronics Engineers – IEEE.

Com os dados demonstrados no gráfico conclui-se que, apesar da melhora obtida com a utilização das normas e de um Gerenciamento mais efetivo dos projetos, a indústria de software ainda está com um grau de eficiência muito aquém do desejado e muito inferior a outras áreas de negócios, onde projetos com êxito representam um percentual muito mais alto.
Por outro lado, na tabela que se segue, tem-se que a maioria do desenvolvimento (36%) ainda é realizada utilizando linguagens e métodos tradicionais.

O que explicaria então uma evolução tão tímida ao longo de tantos anos com a aplicação de normas de qualidade para o desenvolvimento de softwares? Recorrendo ao pensamento de Domenico De Masi, pode-se perceber claramente que “as máquinas mudam (ou evoluem) muito mais velozmente que os hábitos, as mentalidades e as normas”. Quanto mais complexo se torna o trabalho, mais complexas se tornam as normas para organizá-lo, e existe uma complexidade intrínseca também em absorver e aplicar as novas normas que competem entre si para demonstrar maior eficiência ou efetividade. Daí surge toda uma indústria de certificações de qualidade.
Apesar dos avanços da sociedade pós-industrial, as organizações e mesmo as atitudes humanas que ainda imperam, são aquelas da era industrial. As dificuldades se agigantam quando novas técnicas e métodos moldam algo para o qual, ou não se dispõe de perfis preparados ou, de fato, não existe suporte realístico para sua execução. O fato é que a tecnologia evolui com a velocidade da luz enquanto os seres humanos andam a passos de tartaruga.
Reduzir a complexidade no cenário de TI adotando novos paradigmas é, então, uma das chaves para minimizar os efeitos das frustrações modernas relacionadas ao não atendimento a prazos e orçamentos em projetos de TI.
O resumo da Ópera
Observa-se, no dia a dia prático e na grande maioria das vezes, que o negócio corre atrás dos concorrentes, enquanto que a TI corre atrás do negócio, sem dispor de especificações claras. Feito um sistema e colocado em produção, via de regra o negócio não se reconhece em sua “versão tecnológica” e com isso aumentam as falhas, o retrabalho, o turnover e o custeio. A TI “resolve” o problema oferecendo muitas vezes mais complexidade. Diante de novos fracassos diminuem a credibilidade, os recursos e as receitas. O negócio, querendo se perpetuar anseia por sistemas à prova de Futuro!
Apesar de existirem muitos outros pontos que poderiam ser abordados para caracterizar o contexto que envolve o problema alvo deste artigo, a questão central reside em separar o negócio de suas formas de implementação da forma mais radical possível. De outro lado, essa separação só se faz possível ao aproximar usuários e técnicos pelo uso de uma linguagem mais natural e conceber um framework de SI mais simples, capaz de promover a “desconstrução” da complexidade, gera a expectativa que esse movimento derive num ciclo virtuoso de simplificações a ponto de tornar os processos mais automáticos, ágeis e baratos, colocando o ser humano no seu devido lugar, o de conceber e criar.
Por Fernando Miguez (Nov/2007)
Nenhum comentário:
Postar um comentário