Páginas

20 de out. de 2011

Vagas TI

VAGAS RECIFE - PE
 
Started by Rodrigo Santana da Silveira, Trainee 2011 na Renner
 
Consultor SAP - PS Sênior - RECIFE-PE, 19/10/2011
Descrição: Disponibilidade de início em Novembro de 2011
Tempo previsto: 07 meses
Projeto de Implantação
Base: Recife
Empresa: Red & White IT Solutions

Cadastro de CV
http://www.rwit.com.br/oportunidades/ By Rodrigo Santana da Silveira, Trainee 2011 na Renner
 
Like · Flag
 
VAGAS NATAL-RN
 

 
Técnico de Service Desk (NATAL-RN) 13/10/2011
Cargo: Técnico

Atividades do Profissional:

- Fornecer suporte de 2o nível de atendimento (através de contato telefônico, acesso remoto ou via presencial) a softwares básicos (BR Office, Anti Virus, Microsoft Office) e impressoras.

Educação:Ensino Médio Completo

Certificações:- MCP ou MCTS
Experiência: 2 anos
Empresa: Lanlink

Cadastro de CV
http://www.lanlink.com.br/ 

16 de out. de 2011

Configurando a Resolução do Linux (UBUNTU) no VirtualBox


Virtualizar o Ubuntu no Leopard com o VirtualBox é moleza, mas a resolução de 800x600 pixels pode ser limitada demais para alguns usuários (inclusive eu). Infelizmente o Ubuntu não oferece suporte a uma resolução maior através do assistente específico para isso, mas esta tarefa pode ser realizada de outra forma.


Guest Additions
O VirtualBox oferece um software que pode ser instalado em máquinas virtuais Windows e Linux para melhorar a performance e estender as funcionalidades do sistema. Este software chama-se Guest Additions e sua instalação está descrita abaixo.

  1. Inicie o Ubuntu no VirtualBox.
  2. Acesse, na barra de menu do VirtualBox, a opção Dispositivos/Instalar Adições de Convidado...
  3. Será montado um CD virtual dentro do Ubuntu (cancele o pedido sobre auto execução do CD), com o software Guest Additions para vários sistemas operacionais/processadores. Para o MacBook em questão, deve ser instalada a versão deLinux Intel/AMD de 64bits. Para isso, execute o comando abaixo.
    $ sudo /media/cdrom/VBoxLinuxAdditions-amd64.run
  4. Será iniciado o programa de instalação, que exibirá várias informações para o usuário. Espere que ele termine a instalação, que é totalmente automatizada, e repare que ele pedirá para que o sistema seja reiniciado. Faça-o.

Após a reinicialização o Guest Additions já estará instalado e funcional no Ubuntu.

Nota: No contexto de virtualização, guest é o sistema operacional virtualizado e host é o sistema hospedeiro.

Questão de prova: Neste caso, o Ubuntu faz o papel de guest ou de host? E o Leopard? Justifique.

Alterando a Resolução
Mesmo com o Guest Additions instalado não é possível alterar a resolução pelo assistente gráfico do Ubuntu, mas a operação pode ser realizada através da edição direta do arquivo de configuração do X11 (xorg.conf). Este procedimento pode ser realizado como descrito a seguir.

  1. Faça backup do xorg.conf, para poder recuperar o sistema em caso de problemas:
    $ sudo cp /etc/X11/xorg.conf /etc/X11/xorg.conf~
  2. Abra o xorg.conf em um editor de textos:
    $ sudo gedit /etc/X11/xorg.conf
  3. Altere a seção Device, indicando para o X11 um novo driver de vídeo. Para isso, altere essa seção para algo parecido com a listagem 1.
  4. Na seção Screen, configure profundidade de cor, resolução, entre outros, de acordo com a listagem 2. Note que eu usei a resolução 1024x640, por causa do aspecto de 16:10 da tela do MacBook, mas outras resoluções podem ser usadas.
  5. Salve, feche o editor de textos e faça logoff, para que o Ubuntu releia o xorg.conf, aplicando as alterações feitas.

  1. Section "Device"  
  2.     Identifier    "Configured Video Device"  
  3.     Driver        "vboxvideo"  
  4. EndSection  
Listagem 1. xorg.conf – seção Device

  1. Section "Screen"  
  2.     Identifier   "Default Screen"  
  3.     Monitor      "Generic Monitor"  
  4.     Device       "VirtualBox graphics card"  
  5.     DefaultDepth 24  
  6.     SubSection "Display"  
  7.         Depth  24  
  8.         Modes  "1024x640"  
  9.     EndSubSection  
  10. EndSection  
Listagem 2. xorg.conf – seção Screen

A configuração de resoluções de tela maiores no Ubuntu sob o VirtualBox não é muito difícil, mas poderia ser mais fácil. É até compreensível o fato do assistente gráfico não conseguir realizar esta operação antes da carga do novo driver de vídeo, mas após esta carga ele já deveria detectar que mais resoluções estão disponíveis, para facilitar a vida do usuário. A própria alteração do driver poderia ser feita pelo modo gráfico, o que diminuiria a probabilidade de erros. Talvez isso tenha a ver com o driver do VirtualBox, mas o fato é que os desenvolvedores responsáveis poderiam cuidar disso. Para terminar, uma imagem do Ubuntu rodando dentro do Leopard em 1024x640 pixels.


Figura 1. Ubuntu rodando no Leopard com VirtualBox, em 1024x640 pixels.

12 de out. de 2011

Cloud computing: status atual


Por que o modelo está demorando tanto para decolar, uma vez que o termo surgiu em 2007, e nestes cinco anos pouca coisa andou ? 
Está claro que apesar das coisas não estarem indo muito rápido, o conceito de cloud não é mais visto como um hype de mercado, mas como um novo modelo de aquisição, entrega e consumo de recursos de TI (em todas suas variantes, como IaaS, PaaS e SaaS) que provocarão transformações significativas tanto nas empresas produtoras como nas consumidoras de TI.
Cloud não é uma invenção tecnológica, mas seu conceito é construído em cima de tecnologias já provadas há muito tempo, como virtualização, software como serviço (lembram-se do ASP?), intensa disseminação da Internet (todos usam Internet Banking), outsourcing de infraestrutura (até bancos fazem isso) e terceirização dos ambientes de desenvolvimento e testes (muitas grandes empresas já terceirizam intensamente estes processos).
Portanto, cloud é uma mudança no modelo de entrega e de consumo de TI, mas não um conjunto de tecnologias e conceitos não testados. Facilita as coisas. Além disso, o sempre presente mantra do “fazer mais com menos” continua presente e as empresas estão continuamente em busca de reduzir e racionalizar seus custos de TI, obter maior flexibilidade e velocidade na obtenção dos recursos necessários a desenvolver alguma ação de negócios. Cloud é a resposta. Juntando tudo, vemos que mais cedo ou mais tarde cloud vai decolar, pois é realmente uma grande ideia.
Um dos motivos que estão atrasando a decolagem é que ainda existe muita confusão sobre o que é realmente cloud. Tenho participado de dezenas de reuniões e eventos sobre o assunto e vejo, com certo espanto, que muitas empresas ainda não estão bem familiarizadas com o conceito. Existem ainda muitas discussões e divergências sobre o que é realmente cloud. Muitas ainda associam o conceito de cloud exclusivamente ao de cloud pública, ignorando as alternativas de cloud privadas e híbridas. E algumas chegam a afirmar que já estão usando cloud, simplesmente porque virtualizaram alguns de seus servidores.
Outro motivo é que, de maneira geral, a maioria das empresas tem uma área de TI muito conservadora, sendo bastante reativa a qualquer nova tecnologia ou conceito que cause disruptura no seu dia a dia. Geralmente, as empresas adotam novas tecnologias apenas quando elas já provaram sua eficácia e estão relativamente bem maduras no mercado. Basta ver a relutância com que muitas empresas olham as mídias sociais e mesmo o uso de tablets e smartphones para aplicações de negócio.
Contribuindo para isso, a maioria dos tradicionais fornecedores de tecnologia tende a oferecer soluções para nuvens privadas pelos modelos tradicionais de precificação, ou seja, aquisição de ativos pela empresa compradora.
Isto me lembra a situação de um livro que li em 2001 e que me marcou muito: “The Innovator’s Dilemma”, de Clayton M. Christensen. O livro aborda o fracasso de empresas ao se defrontarem com mudanças que causam disrupções nos seus mercados. Ele analisa empresas de sucesso que não conseguiram inovar na velocidade adequada e ficaram para trás. Cita diversas companhias de renome como Sears Roebuck, e na área de TI nomes outrora famosos como Digital, Data General, Wang e outras.
Uma parte muito interessante do livro é a proposição dos cinco princípios, ou leis das tecnologias de disrupção, que ao serem ignoradas enfraquecerão as empresas que atuam nos setores afetados. Estes princípios ou leis são:
Princípio 1: As companhias dependem de clientes e investidores para gerar recursos. Ele observa que as empresas mais bem sucedidas em um paradigma criam mecanismos muito eficientes para abortar ideias que não agradam a seus clientes e investidores e, como resultado, tendem a não investir em tecnologias de disrupção, que geram oportunidades de lucros menores e que seus clientes não querem, pelo menos inicialmente. Quando eles passam a desejá-las, aí é tarde. Outras empresas já dominam o mercado destes produtos.
Princípio 2: Mercados pequenos não solucionam a necessidade de crescimento de grandes empresas. Tecnologias de disrupção possibilitam o surgimento de novos mercados, geralmente pequenos no seu início. As grandes corporações precisam de receitas gigantescas e não conseguem entrar em mercados que geram receitas menores. De maneira geral, sua estratégia é esperar até que estes mercados sejam grandes o suficiente para se tornarem atrativos.
Princípio 3: Mercados que não existem não podem ser analisados. Não existe pesquisa de mercado para eles. Empresas cujos processos de investimento demandam a quantificação dos tamanhos dos mercados e dos retornos financeiros, antes que possam entrar em um mercado, ficam paralisadas ou cometem sérios erros de avaliação ao se depararem com tecnologias de disrupção.
Princípio 4: As capacidades de uma organização definem suas incapacidades. O autor observa que as capacidades de uma organização concentram-se em dois fatores. O primeiro está em seus processos e o segundo nos valores da organização, critérios que os executivos e gestores utilizam quando tomam decisões sobre as prioridades. Mas um processo eficiente para um determinado tipo de produto pode ser muito ineficiente quando temos um produto baseado em uma tecnologia de disrupção. Além disso, os valores fazem com que as decisões priorizem projetos de desenvolvimento de produtos de alta margem, deixando em segundo plano os de baixa margem, como os que envolvem tecnologias inovadoras.
Princípio 5: A oferta da tecnologia pode não ser igual à demanda do mercado. Apesar de inicialmente poderem ser utilizadas apenas em mercados pequenos, tecnologias de disrupção produzem rupturas porque podem, posteriormente, ter desempenho plenamente competitivo dentro dos mercados habituais, em comparação com produtos já estabelecidos. O autor observa que o ritmo da evolução dos produtos frequentemente excede a taxa de melhoria do desempenho que os clientes habituais procuram ou podem absorver. Estes produtos apresentam excesso de desempenho. Assim, produtos que apresentam no início características de funcionalidade que estejam próximas das necessidades do mercado atual seguirão trajetórias de melhorias que os fará superar as necessidades dos mercados habituais no futuro, oferecendo desempenho altamente competitivo, substituindo os produtos pré-estabelecidos.
Se enquadrarmos cloud computing nos princípios acima e como muitas das empresas do setor reagiram ou ainda estão reagindo, vamos ver que teremos vencedores e perdedores. Faz parte da vida empresarial…
Mas, na minha opinião pessoal, estamos próximos do ponto de inflexão. Por que?
Vejo a cada dia mais interesse pelo assunto. O crescente número de eventos sobre o tema demonstra isso. Além disso, muitas empresas já estão adotando virtualização de forma intensa, o que é o primeiro passo na jornada em direção a cloud. Outras já estão acostumadas com outsourcing. Assim, acredito que, em 2012 ou 2013, cloud computing vai ser adotado de forma mais acelerada, com as empresas fazendo cada vez mais provas de conceito e implementações piloto.
Estas primeiras experimentações serão a colocação de ambientes de email, colaboração e ferramentas de produtividade em nuvens. Também veremos atividades como ambiente de desenvolvimento e teste, bem como aplicações específicas de BI em nuvens. À medida que os cases de sucesso se espalhem e os resultados obtidos, como maior agilidade e flexibilidade no provisionamento e alocação dos recursos computacionais, sejam realmente comprovados, cloud vai ser adotado com mais intensidade. Já veremos cloud nos budgets de muitas empresas a partir de 2012.
Os resultados positivos vão demandar novos projetos e cria-se um efeito virtuoso. Creio que em torno de 2020, ou seja, daqui a dez anos, o termo cloud computing deixará de existir, e será apenas computing, pois cloud será o nosso modelo mental de pensarmos aquisição e uso de TI.
Claro que ainda existirão pedras no caminho. Algumas delas são os quesitos segurança, privacidade e confidencialidade dos dados, bem como as ainda incertezas jurídicas e tributárias, principalmente quando fala-se em clouds públicas, com data centers localizados em outros países. Em grandes empresas, principalmente as de setores mais regulados, esta questão torna-se mais séria, pois seus departamentos jurídicos e financeiros têm maior poder de veto dentro da organização.
Por outro lado, se a área de TI ficar esperando a computação em nuvem amadurecer para então se mover, poderá perder seu espaço. A chamada “Shadow IT” ou computação invisível torna-se mais forte em ambiente de nuvem. Eu questiono a afirmativa de muitas empresas que dizem que sua área de TI tem total controle sobre o que os usuários adquirem e acessam em termos de TI. Um exemplo é a proibição de se usar mídias sociais dentro da organização. OK, é proibido pelo desktop corporativo, mas o funcionário acessa seu Facebook ou tuita algo pelo seu smartphone ou tablet.
Na conversa com meus amigos CIOs isto ficou claro. Eles já disseram saber de vários casos (e confessaram, até mesmo dentro de suas empresas) das áreas de negócios cada vez mais adquirirem serviços diretamente via Internet. A questão não é mais tecnológica. Não dá mais para proibir tecnologias que surgem à velocidades mais rápidas que a capacidade das áreas de TI a absorverem, mas de definir claramente políticas e processos de aquisição de aplicações e tecnologias. TI tem que ser aliado e facilitador e não o controlador dos recursos computacionais.

Nova fábrica na Bahia dará suporte para cadeia do petróleo


As empresas brasileiras Grupo Asperbras e BRCP, e a estatal chinesa Baoji Oilfield Machinery Company (Bomco), anunciam hoje, em São Paulo, uma parceria para construir uma fábrica de máquinas e equipamentos para prospecção e extração de petróleo e gás, a Bomcobras. Segundo as empresas, o empreendimento terá investimento inicial de R$ 130 milhões. A fábrica será instalada em uma área de 50 mil metros quadrados na região metropolitana de Salvador.

De acordo com as companhias, o objetivo da união é atender a crescente demanda de máquinas e equipamentos usadas pelas empresas que fazem prospecção e extração de petróleo e gás no Brasil. Na associação, a Bomco vai deter 34%, enquanto as brasileiras Aspebras e BRCP somarão juntas 66%.

"Vamos fabricar no Brasil todos os equipamentos e máquinas que a Bomco produz na China", afirma, em nota, o vice-presidente do conselho de administração da Bomcobras e presidente da Asperbras, Francisco Colnaghi.

A linha de produção inclui produtos para exploração no continente e no oceano. Entre os itens estão bombas de lama, tubos e torres de perfuração, guindastes e sondas, cujo alcance pode chegar a 12 mil metros. "Mas não iremos atuar só na venda de equipamentos. O objetivo é também fornecermos peças de reposição, inclusive para equipamentos já em operação", diz Francisco.


Fonte: Exame.com

Qual é a melhor ferramenta de virtualização do mercado?

Embora a VMware apresente a melhor avaliação geral, distância em relação aos principais concorrentes já é pequena.


Data centers grandes ou pequenos rumam para a completa virtualização, isso é inegável. Mas por um longo período, o mercado ficou concentrado na VMware, que foi o primeiro fornecedor a perceber que precisaria oferecer interoperabilidade com estabilidade, algo importante para que os servidores virtuais entrassem em produção diária. Mas hoje já há diversas opções no mercado.
Para apurar de forma precisa como está a corrida pela virtualização, os fornecedores Citrix, Microsoft, Red Hat e VMware aceitaram testar produtos no Network Computing Lab, na Universidade do Havaí, colocando suas soluções em teste. A InfoWorld coordenou o trabalho, comparando o Citrix XenServer, Microsoft Windows Server 2008 R2 Hyper-V, Red Hat Enterprise Virtualization e VMware vSphere. As métricas foram abrangentes, de facilidade de instalação a desempenho e funcionalidades de gerenciamento.
Para o teste, foram usados o mesmo hardware, mesma topologia de rede, rodando as mesmas máquinas virtuais. As ferramentas de análise foram executadas em Linux e Windows, que avaliaram testes subjetivos de gerenciamento e administração. A publicação analisou configuração de host, criação de templates e clonagem de máquinas virtuais, atualizações e correções, snapshots e backups, opções de scripts, além de recursos mais avançados como balanceamento de carga.
Os resultados mostraram que as quatro soluções combinam desempenho excelente com um conjunto rico de ferramentas de gerenciamento. Mas a VMware ainda leva um pouco de vantagem, talvez em razão de seu tempo de mercado. A ferramenta do fornecedor possui funcionalidades avançadas que as outras ainda não têm, além de mostrar um nível de consistência e precisão que ainda não foram alcançadas pelos outros. Os concorrentes possuem preços mais baixos, mas esse fator não é determinante, pois todas as ferramentas podem conter custos ocultos.
Em relação ao desempenho, os quatro chegaram a um parecido, sem grandes vencedores ou perdedores. As principais diferenças emergiram nos testes de carga, no qual o Hyper-V da Microsoft e o XenServer, da Citrix, tiveram um desempenho prejudicado. Rodando em servidor Windows, os melhores resultados vieram dos hypervisors da Microsoft e da VMware. Rodando em Linux, os produtos da Citrix, Red Hat e VMware tiveram resultados sólidos, com uma pequena desvantagem para a Microsoft. Nos testes de largura de banda com dados criptografados, Citrix e VMware se mostraram três vezes mais rápidos que Microsoft e Red Hat, graças a um melhor aproveitamento do processador Intel Westmere.
Três outros quesitos que importam muito para ambientes de qualquer tamanho é migração em tempo real de máquinas virtuais, alta disponibilidade e balanceamento de carga. O primeiro é a capacidade das máquinas de se movimentarem entre diferentes hosts sem um reboot. O segundo permite que o sistema reconheça máquinas virtuais que não estão em funcionamento para tomar as medidas necessárias, como reiniciar as máquinas. O terceiro nivela a carga das máquinas em toda a infraestrutura, para não haver problemas de desempenho. Esses três recursos-chave, que já foram exclusivos da VMware, agora estão presentes em cada solução testada.
Atrás desses recursos, estão alguns também importantes, como provisionamento otimizado, criação de templates e snapshots, backups automáticos, migração de storage em tempo real e recursos avançados de gerenciamento de memória. Nesses casos, existem algumas exceções. Entre os hypervisors, a VMware ainda é a única capaz de fazer migrações em tempo real de storage. Quanto aos recursos avançados de gerenciamento de memória, somente VMware e Red Hat oferecem recursos completos.
Algumas dessas últimas ferramentas citadas são extremamente importantes para infraestruturas rodando um número muito grande de máquinas virtuais por host e um grande número geral de máquinas virtuais. No entanto, ambientes menores podem não precisar de todos eles no curto prazo. Alguns desses recursos facilitam a gestão, mas não têm um impacto direto na experiência do usuário, como as migrações em tempo real, alta disponibilidade e balanceamento de carga.
Deve-se, ainda, analisar a questão da integração com API, que pode trazer grandes benefícios em casos de implementações muito grandes de virtualização, mas todas as soluções têm alguma forma de gestão de scripts ou recurso similar. Já no quesito compatiblidade com sistema operacional, só a VMware tem suporte explícito para Mac OS X Server, FreeBSD, NetWare e Solaris. Os demais limitam-se às distribuições Linux e plataformas Windows.
Em resumo, todos os fornecedores fornecem recursos suficientes para uma variedade de tamanhos de ambientes, mas a VMware ainda se demonstra o mais maduro e rico em recursos.
A complexidade do modelo de licenças é um quesito importante a ser levado em consideração. Os modelos utilizados pela VMware e Microsoft são os mais complexos. A VMware oferece diversos níveis de vSphere, cada um com um conjunto de recursos diferentes, cobrados por socket físico. A Microsoft oferece o Hyper-V como parte do Windows Server 2008 R2, com uma licença corporativa permitindo quatro servidores rodando o mesmo sistema operacional em um servidor físico, além de uma licença para datacenter que permite rodar um número ilimitado de máquinas virtuais por servidor físico.
O XenServer, da Citrix, é cobrado por servidor, não importando a capacidade do mesmo. Como a VMware, a Citrix oferece diversos níveis de sistema. O Red Hat Enterprise Virtualization é o mais simples (e barato), com uma única taxa anual por servidor físico, com opções de suporte em meio período ou no sistema 24x7.
Considerações finais
A desculpa mais comum para o atraso em projetos de virtualização no passado era o preço das ferramentas contraposto à falta de recursos importantes, muitos deles citados aqui. Hoje, todos os recursos desejados estão disponíveis e projetos bem-sucedidos mostram que a capacidade de redução de custos e o aumento da eficiência da virtualização é real, compensando muito os investimetnos.
Em uma avaliação geral, o Hyper-V, da Microsoft, é o que chega mais perto da vSphere, da VMware, nas funcionalidades gerais de gerenciamento. No entanto, a Microsoft possui uma gestão de funções espalhadas em diversas ferramentas, enquanto os demais têm a vantagem de concentrar tudo em um único servidor de gerenciamento.
O XenServer, da Citrix, combina uma excelente performance com Linux, implantação rápida, mas algumas funções avançadas requerem configurações adicionais e outras ferramentas de suporte. Uma desvantagem é o fato de que todas as operações de gestão de máquina virtual são serializadas, tomando mais tempo para realizar algumas ações, como ligar ou desligar máquinas. Limitação que impacta na gerenciabilidade e escalabilidade.
O Red Hat Enterprise Virtualization, por sua vez, também é de rápida instalação e tem as funcionalidades primárias de gerenciamento, mas ainda tem alguns problemas em relação à gestão de host e à alta disponibilidade. A sua performance é sólida tanto com sistemas Windows e Linux e é o mais próximo do VMware quando o assunto é um sistema com ingredientes para um ambiente altamente escalável.
Não é surpreendente que o VMware vSphere ainda tenha a melhor a nota de uma forma geral, mas o que se pode observar é que a distância entre ele e os concorrentes está diminuindo velozmente, razão pela qual é possível afirmar que nunca houve melhor hora para apostar em soluções de virtualização.

Por PAUL VENEZIA, DA INFOWORLD 2011