Páginas

12 de out. de 2011

Cloud computing: status atual


Por que o modelo está demorando tanto para decolar, uma vez que o termo surgiu em 2007, e nestes cinco anos pouca coisa andou ? 
Está claro que apesar das coisas não estarem indo muito rápido, o conceito de cloud não é mais visto como um hype de mercado, mas como um novo modelo de aquisição, entrega e consumo de recursos de TI (em todas suas variantes, como IaaS, PaaS e SaaS) que provocarão transformações significativas tanto nas empresas produtoras como nas consumidoras de TI.
Cloud não é uma invenção tecnológica, mas seu conceito é construído em cima de tecnologias já provadas há muito tempo, como virtualização, software como serviço (lembram-se do ASP?), intensa disseminação da Internet (todos usam Internet Banking), outsourcing de infraestrutura (até bancos fazem isso) e terceirização dos ambientes de desenvolvimento e testes (muitas grandes empresas já terceirizam intensamente estes processos).
Portanto, cloud é uma mudança no modelo de entrega e de consumo de TI, mas não um conjunto de tecnologias e conceitos não testados. Facilita as coisas. Além disso, o sempre presente mantra do “fazer mais com menos” continua presente e as empresas estão continuamente em busca de reduzir e racionalizar seus custos de TI, obter maior flexibilidade e velocidade na obtenção dos recursos necessários a desenvolver alguma ação de negócios. Cloud é a resposta. Juntando tudo, vemos que mais cedo ou mais tarde cloud vai decolar, pois é realmente uma grande ideia.
Um dos motivos que estão atrasando a decolagem é que ainda existe muita confusão sobre o que é realmente cloud. Tenho participado de dezenas de reuniões e eventos sobre o assunto e vejo, com certo espanto, que muitas empresas ainda não estão bem familiarizadas com o conceito. Existem ainda muitas discussões e divergências sobre o que é realmente cloud. Muitas ainda associam o conceito de cloud exclusivamente ao de cloud pública, ignorando as alternativas de cloud privadas e híbridas. E algumas chegam a afirmar que já estão usando cloud, simplesmente porque virtualizaram alguns de seus servidores.
Outro motivo é que, de maneira geral, a maioria das empresas tem uma área de TI muito conservadora, sendo bastante reativa a qualquer nova tecnologia ou conceito que cause disruptura no seu dia a dia. Geralmente, as empresas adotam novas tecnologias apenas quando elas já provaram sua eficácia e estão relativamente bem maduras no mercado. Basta ver a relutância com que muitas empresas olham as mídias sociais e mesmo o uso de tablets e smartphones para aplicações de negócio.
Contribuindo para isso, a maioria dos tradicionais fornecedores de tecnologia tende a oferecer soluções para nuvens privadas pelos modelos tradicionais de precificação, ou seja, aquisição de ativos pela empresa compradora.
Isto me lembra a situação de um livro que li em 2001 e que me marcou muito: “The Innovator’s Dilemma”, de Clayton M. Christensen. O livro aborda o fracasso de empresas ao se defrontarem com mudanças que causam disrupções nos seus mercados. Ele analisa empresas de sucesso que não conseguiram inovar na velocidade adequada e ficaram para trás. Cita diversas companhias de renome como Sears Roebuck, e na área de TI nomes outrora famosos como Digital, Data General, Wang e outras.
Uma parte muito interessante do livro é a proposição dos cinco princípios, ou leis das tecnologias de disrupção, que ao serem ignoradas enfraquecerão as empresas que atuam nos setores afetados. Estes princípios ou leis são:
Princípio 1: As companhias dependem de clientes e investidores para gerar recursos. Ele observa que as empresas mais bem sucedidas em um paradigma criam mecanismos muito eficientes para abortar ideias que não agradam a seus clientes e investidores e, como resultado, tendem a não investir em tecnologias de disrupção, que geram oportunidades de lucros menores e que seus clientes não querem, pelo menos inicialmente. Quando eles passam a desejá-las, aí é tarde. Outras empresas já dominam o mercado destes produtos.
Princípio 2: Mercados pequenos não solucionam a necessidade de crescimento de grandes empresas. Tecnologias de disrupção possibilitam o surgimento de novos mercados, geralmente pequenos no seu início. As grandes corporações precisam de receitas gigantescas e não conseguem entrar em mercados que geram receitas menores. De maneira geral, sua estratégia é esperar até que estes mercados sejam grandes o suficiente para se tornarem atrativos.
Princípio 3: Mercados que não existem não podem ser analisados. Não existe pesquisa de mercado para eles. Empresas cujos processos de investimento demandam a quantificação dos tamanhos dos mercados e dos retornos financeiros, antes que possam entrar em um mercado, ficam paralisadas ou cometem sérios erros de avaliação ao se depararem com tecnologias de disrupção.
Princípio 4: As capacidades de uma organização definem suas incapacidades. O autor observa que as capacidades de uma organização concentram-se em dois fatores. O primeiro está em seus processos e o segundo nos valores da organização, critérios que os executivos e gestores utilizam quando tomam decisões sobre as prioridades. Mas um processo eficiente para um determinado tipo de produto pode ser muito ineficiente quando temos um produto baseado em uma tecnologia de disrupção. Além disso, os valores fazem com que as decisões priorizem projetos de desenvolvimento de produtos de alta margem, deixando em segundo plano os de baixa margem, como os que envolvem tecnologias inovadoras.
Princípio 5: A oferta da tecnologia pode não ser igual à demanda do mercado. Apesar de inicialmente poderem ser utilizadas apenas em mercados pequenos, tecnologias de disrupção produzem rupturas porque podem, posteriormente, ter desempenho plenamente competitivo dentro dos mercados habituais, em comparação com produtos já estabelecidos. O autor observa que o ritmo da evolução dos produtos frequentemente excede a taxa de melhoria do desempenho que os clientes habituais procuram ou podem absorver. Estes produtos apresentam excesso de desempenho. Assim, produtos que apresentam no início características de funcionalidade que estejam próximas das necessidades do mercado atual seguirão trajetórias de melhorias que os fará superar as necessidades dos mercados habituais no futuro, oferecendo desempenho altamente competitivo, substituindo os produtos pré-estabelecidos.
Se enquadrarmos cloud computing nos princípios acima e como muitas das empresas do setor reagiram ou ainda estão reagindo, vamos ver que teremos vencedores e perdedores. Faz parte da vida empresarial…
Mas, na minha opinião pessoal, estamos próximos do ponto de inflexão. Por que?
Vejo a cada dia mais interesse pelo assunto. O crescente número de eventos sobre o tema demonstra isso. Além disso, muitas empresas já estão adotando virtualização de forma intensa, o que é o primeiro passo na jornada em direção a cloud. Outras já estão acostumadas com outsourcing. Assim, acredito que, em 2012 ou 2013, cloud computing vai ser adotado de forma mais acelerada, com as empresas fazendo cada vez mais provas de conceito e implementações piloto.
Estas primeiras experimentações serão a colocação de ambientes de email, colaboração e ferramentas de produtividade em nuvens. Também veremos atividades como ambiente de desenvolvimento e teste, bem como aplicações específicas de BI em nuvens. À medida que os cases de sucesso se espalhem e os resultados obtidos, como maior agilidade e flexibilidade no provisionamento e alocação dos recursos computacionais, sejam realmente comprovados, cloud vai ser adotado com mais intensidade. Já veremos cloud nos budgets de muitas empresas a partir de 2012.
Os resultados positivos vão demandar novos projetos e cria-se um efeito virtuoso. Creio que em torno de 2020, ou seja, daqui a dez anos, o termo cloud computing deixará de existir, e será apenas computing, pois cloud será o nosso modelo mental de pensarmos aquisição e uso de TI.
Claro que ainda existirão pedras no caminho. Algumas delas são os quesitos segurança, privacidade e confidencialidade dos dados, bem como as ainda incertezas jurídicas e tributárias, principalmente quando fala-se em clouds públicas, com data centers localizados em outros países. Em grandes empresas, principalmente as de setores mais regulados, esta questão torna-se mais séria, pois seus departamentos jurídicos e financeiros têm maior poder de veto dentro da organização.
Por outro lado, se a área de TI ficar esperando a computação em nuvem amadurecer para então se mover, poderá perder seu espaço. A chamada “Shadow IT” ou computação invisível torna-se mais forte em ambiente de nuvem. Eu questiono a afirmativa de muitas empresas que dizem que sua área de TI tem total controle sobre o que os usuários adquirem e acessam em termos de TI. Um exemplo é a proibição de se usar mídias sociais dentro da organização. OK, é proibido pelo desktop corporativo, mas o funcionário acessa seu Facebook ou tuita algo pelo seu smartphone ou tablet.
Na conversa com meus amigos CIOs isto ficou claro. Eles já disseram saber de vários casos (e confessaram, até mesmo dentro de suas empresas) das áreas de negócios cada vez mais adquirirem serviços diretamente via Internet. A questão não é mais tecnológica. Não dá mais para proibir tecnologias que surgem à velocidades mais rápidas que a capacidade das áreas de TI a absorverem, mas de definir claramente políticas e processos de aquisição de aplicações e tecnologias. TI tem que ser aliado e facilitador e não o controlador dos recursos computacionais.

Nenhum comentário:

Postar um comentário