Archive for janeiro 2011
Governo estuda Censo na área de tecnologia
Segundo o governo, o censo é essencial para que um apagão de mão de obra qualificada não comprometa o crescimento do país no médio e no longo prazo.
BRASÍLIA - Para medir a carência de mão de obra qualificada no Brasil, o Ministério do Desenvolvimento, Indústria e Comércio Exterior (Mdic) deverá fazer um censo dos profissionais da área tecnológica em todo o país. Ainda não há previsão para que os trabalhos se iniciem, mas fontes do ministério informaram à Agência Brasil que a ideia está em estudo.
De acordo com o presidente do Confea, o censo é essencial para que um apagão de mão de obra qualificada não comprometa o crescimento do país no médio e no longo prazo. "Essa seria apenas a primeira de uma série de medidas necessárias para evitar um gargalo no mercado de trabalho e nos investimentos em infraestrutura, como os Jogos Olímpicos, a Copa do Mundo e a exploração do pré-sal", ressalta.
Para Melo, o conhecimento da capacidade efetiva dos engenheiros e dos profissionais em tecnologia formados no país permitiria o desenvolvimento de políticas precisas para o setor. "Temos de saber onde esses profissionais estão, se trabalham nas áreas em que se formaram, têm domínio de língua estrangeira e estão dispostos a se habilitarem", afirma. "O conhecimento desse potencial viabiliza políticas concretas para oferecer atualizações profissionais".
Numa segunda etapa, explica Melo, o censo serviria de base para a criação de cursos de capacitação por universidades e grandes empresas. Ele, no entanto, admite que, no curto e no médio prazo, parte das vagas terá de ser ocupada por profissionais do exterior porque o país não terá como suprir as carências de imediato. "De 2006 para cá, dobrou o número de engenheiros formados no Brasil, mas essa mão de obra não é especializada. A demanda é qualitativa, não quantitativa".
O presidente do Confea diz estar disposto a acordos que acelerem a entrada de mão de obra estrangeira, desde que haja reciprocidade e profissionais brasileiros possam trabalhar em empresas dos países desenvolvidos no futuro.
Segundo o Confea, o número de pedidos de registro de profissionais diplomados no exterior triplicou em 2010, de 115 processos anuais para cerca de 400. A fila de espera inclui engenheiros e arquitetos dos seguintes países: Estados Unidos, Espanha, Itália, Portugal, Inglaterra, Chile e Argentina.
A realização do censo envolverá a articulação de diversos setores do governo. Além do Mdic, que conduzirá os trabalhos, o Instituto Nacional de Metrologia (Inmetro) cuidará da certificação dos profissionais, o Instituto Brasileiro de Geografia e Estatística (IBGE) desenvolverá a metodologia de pesquisa e o Instituto de Pesquisa Econômica Aplicada (Ipea) contribuirá com estudos já realizados.
Fonte: INFO Online
BRASÍLIA - Para medir a carência de mão de obra qualificada no Brasil, o Ministério do Desenvolvimento, Indústria e Comércio Exterior (Mdic) deverá fazer um censo dos profissionais da área tecnológica em todo o país. Ainda não há previsão para que os trabalhos se iniciem, mas fontes do ministério informaram à Agência Brasil que a ideia está em estudo.
De acordo com o presidente do Confea, o censo é essencial para que um apagão de mão de obra qualificada não comprometa o crescimento do país no médio e no longo prazo. "Essa seria apenas a primeira de uma série de medidas necessárias para evitar um gargalo no mercado de trabalho e nos investimentos em infraestrutura, como os Jogos Olímpicos, a Copa do Mundo e a exploração do pré-sal", ressalta.
Para Melo, o conhecimento da capacidade efetiva dos engenheiros e dos profissionais em tecnologia formados no país permitiria o desenvolvimento de políticas precisas para o setor. "Temos de saber onde esses profissionais estão, se trabalham nas áreas em que se formaram, têm domínio de língua estrangeira e estão dispostos a se habilitarem", afirma. "O conhecimento desse potencial viabiliza políticas concretas para oferecer atualizações profissionais".
Numa segunda etapa, explica Melo, o censo serviria de base para a criação de cursos de capacitação por universidades e grandes empresas. Ele, no entanto, admite que, no curto e no médio prazo, parte das vagas terá de ser ocupada por profissionais do exterior porque o país não terá como suprir as carências de imediato. "De 2006 para cá, dobrou o número de engenheiros formados no Brasil, mas essa mão de obra não é especializada. A demanda é qualitativa, não quantitativa".
O presidente do Confea diz estar disposto a acordos que acelerem a entrada de mão de obra estrangeira, desde que haja reciprocidade e profissionais brasileiros possam trabalhar em empresas dos países desenvolvidos no futuro.
Segundo o Confea, o número de pedidos de registro de profissionais diplomados no exterior triplicou em 2010, de 115 processos anuais para cerca de 400. A fila de espera inclui engenheiros e arquitetos dos seguintes países: Estados Unidos, Espanha, Itália, Portugal, Inglaterra, Chile e Argentina.
A realização do censo envolverá a articulação de diversos setores do governo. Além do Mdic, que conduzirá os trabalhos, o Instituto Nacional de Metrologia (Inmetro) cuidará da certificação dos profissionais, o Instituto Brasileiro de Geografia e Estatística (IBGE) desenvolverá a metodologia de pesquisa e o Instituto de Pesquisa Econômica Aplicada (Ipea) contribuirá com estudos já realizados.
Fonte: INFO Online
domingo, 30 de janeiro de 2011
Postado por
Unknown
Why should I care about virtualization?
OK, so virtualization is the latest hype. Why should I care? Computers are getting cheaper every day... This is a fair question which is often asked by virtualization skeptics.
On the other side, you'll find virtualization fanatics, who run 4 virtual machines on their desktop and feel the same about virtualization as they feel about the color monitor or the sound card years ago - they can never go back to computing without it, but they can't quite explain why somebody else should care about virtualization.
This article aims to describe why some people want virtualization, and why some other people absolutely need virtualization.
Consolidation
The most common use for virtualization is consolidation: combining multiple workloads on one physical computer. This allows people to run a lot of virtual machines on fewer physical computers.
But computers are cheap...
Well, computers may be cheap, but if you have enough of them the cost sure adds up.
A typical (full) data center
Lets take a look at a typical data center today. The data center is full, there is literally no more space to add extra computers and the power and air conditioning are near their limits too. However, since dual core CPUs and 1GB RAM sticks are so cheap, the vast majority of the servers only get used to 10-20% of their capacity.
In short, the data center is full, but the servers are empty.
If the IT department wants to run more server workloads, will they:
As long as there is free space available inside a data center, adding a few computers is the easy way to go. However, once the data center is full, IT management will have a hard time convincing the higher-ups that an entire new data center should be built.
To make matters worse, there might not even be enough electricity available nearby. It's not like you can just plug a 5MW data center into the power grid, and you do not want to have to train an entire new staff in another state!
Virtualization can offer a relatively easy way out. When the datacenter fills up, you can start actually filling up the servers.
Hardware isolation
Hardware is getting faster every month. However, moving a workload to a new server requires installing an OS on the new server and then configuring it to run the application. After that, you copy over the application data and hope everything still works.
Virtual machines do not have this issue, since they do not interact with real hardware. You install the host OS onto your new server, then copy over the virtual machine in its entirety. No need to reconfigure the OS that runs your applications, since that is inside a virtual machine.
Legacy operating systems
The problem gets a lot worse when dealing with an older operating system. Yes, the one that runs that critical database. With a bit of bad luck, that older OS will not boot on quad core CPUs. Doh! Look around in any data center, and you'll find a critical application that's tied down to old hardware because it's running on a legacy operating system.
Wouldn't it be nice if you could magically run that old operating system on new hardware?
With full virtualization (vmware binary rewriting, or Xen or KVM with Intel VT or AMD-V capable CPUs) you can. It works because the virtualization layer emulates simple hardware, so your octo-core CPU will look like an older 8-CPU system, only with faster CPUs. Multi-core, ACPI device discovery and interrupt routing, support for 10GigE or SATA are no longer a problem.
Yes, virtualization can have significant overhead. However, because the virtualization software emulates simple hardware, it may help you run legacy OSes on way faster hardware than anything that OS could boot on natively. It may help with the power bill, too...
Testing
Whether you are a student doing software development, or the CIO of a major bank, you will have a shortage of test hardware.
Virtualization allows you to create low priority virtual machines for testing. Test out that new Fedora Rawhide or Debian Unstable on a virtual machine, before it breaks your desktop. Give your developers a bunch of virtual test machines each, instead of having them wait for each other to finish using the test systems.
Maintenance
With virtual machine migration - like vmware vmotion, or xen live migration - you can move a virtual machine from one system to another while it is running. Believe it or not, this is useful for more things than impressing your friends ...
There are a number of situations in which you will want to migrate virtual machines to other physical machines:
Power Savings
Consider a stack of machines providing some kind off web service. They're not busy all day. At peak hours, say 9am to 5pm, they might be working at capacity, but at off hours (eg 10pm to 6am), they may be working at only 10% of their capacity. IT staff could dramatically reduce power bills by migrating virtual machines around the server room so that at off-peak hours, 90% of all machines can be shut down. A 5MW machine room running at 0.5MW for even just one third of the day is a significant savings.
Security and performance isolation
Running different applications in their own virtual machines means that if one of your applications starts misbehaving, for example eating up all memory, the other applications on the same system will not get swapped out. This one misbehaving application will run slowly (but it would anyway), but the other applications will continue running like nothing happened.
A similar thing is true when one application gets compromised. Just that virtual machine (or part of it) will be under control of the attacker. As long as the virtual machines are well isolated from each other, which is typically the case in all virtualization technologies where each virtual machine runs its own kernel, the other virtual machines will be safe.
Container technologies, like Linux VServer, Virtuozzo/OpenVZ and Solaris Zones, typically have a lower degree of isolation, in exchange for lower overhead and more flexible resource use.
Source: Virtualization Technology
On the other side, you'll find virtualization fanatics, who run 4 virtual machines on their desktop and feel the same about virtualization as they feel about the color monitor or the sound card years ago - they can never go back to computing without it, but they can't quite explain why somebody else should care about virtualization.
This article aims to describe why some people want virtualization, and why some other people absolutely need virtualization.
Consolidation
The most common use for virtualization is consolidation: combining multiple workloads on one physical computer. This allows people to run a lot of virtual machines on fewer physical computers.
But computers are cheap...
Well, computers may be cheap, but if you have enough of them the cost sure adds up.
A typical (full) data center
Lets take a look at a typical data center today. The data center is full, there is literally no more space to add extra computers and the power and air conditioning are near their limits too. However, since dual core CPUs and 1GB RAM sticks are so cheap, the vast majority of the servers only get used to 10-20% of their capacity.
In short, the data center is full, but the servers are empty.
If the IT department wants to run more server workloads, will they:
- Build a new data center, or
- use the capacity inside the existing servers?
As long as there is free space available inside a data center, adding a few computers is the easy way to go. However, once the data center is full, IT management will have a hard time convincing the higher-ups that an entire new data center should be built.
To make matters worse, there might not even be enough electricity available nearby. It's not like you can just plug a 5MW data center into the power grid, and you do not want to have to train an entire new staff in another state!
Virtualization can offer a relatively easy way out. When the datacenter fills up, you can start actually filling up the servers.
Hardware isolation
Hardware is getting faster every month. However, moving a workload to a new server requires installing an OS on the new server and then configuring it to run the application. After that, you copy over the application data and hope everything still works.
Virtual machines do not have this issue, since they do not interact with real hardware. You install the host OS onto your new server, then copy over the virtual machine in its entirety. No need to reconfigure the OS that runs your applications, since that is inside a virtual machine.
Legacy operating systems
The problem gets a lot worse when dealing with an older operating system. Yes, the one that runs that critical database. With a bit of bad luck, that older OS will not boot on quad core CPUs. Doh! Look around in any data center, and you'll find a critical application that's tied down to old hardware because it's running on a legacy operating system.
Wouldn't it be nice if you could magically run that old operating system on new hardware?
With full virtualization (vmware binary rewriting, or Xen or KVM with Intel VT or AMD-V capable CPUs) you can. It works because the virtualization layer emulates simple hardware, so your octo-core CPU will look like an older 8-CPU system, only with faster CPUs. Multi-core, ACPI device discovery and interrupt routing, support for 10GigE or SATA are no longer a problem.
Yes, virtualization can have significant overhead. However, because the virtualization software emulates simple hardware, it may help you run legacy OSes on way faster hardware than anything that OS could boot on natively. It may help with the power bill, too...
Testing
Whether you are a student doing software development, or the CIO of a major bank, you will have a shortage of test hardware.
Virtualization allows you to create low priority virtual machines for testing. Test out that new Fedora Rawhide or Debian Unstable on a virtual machine, before it breaks your desktop. Give your developers a bunch of virtual test machines each, instead of having them wait for each other to finish using the test systems.
Maintenance
With virtual machine migration - like vmware vmotion, or xen live migration - you can move a virtual machine from one system to another while it is running. Believe it or not, this is useful for more things than impressing your friends ...
There are a number of situations in which you will want to migrate virtual machines to other physical machines:
- Hardware failure. Say that a CPU fan breaks down, the CPU throttles itself and runs at a glacial speed. You move the virtual machines onto healthy systems and fix the hardware, without application downtime.
- Load balancing. The virtual web server of one of your customers just got slashdotted. Move some of the other virtual machines away, so there is enough capacity to handle the load.
- Flexible maintenance window. You would like to upgrade those CPUs during the daytime, but you cannot shut down the applications used by everybody else in the office. With live migration you can move the virtual machines off each physical system before you perform your surgery.
Power Savings
Consider a stack of machines providing some kind off web service. They're not busy all day. At peak hours, say 9am to 5pm, they might be working at capacity, but at off hours (eg 10pm to 6am), they may be working at only 10% of their capacity. IT staff could dramatically reduce power bills by migrating virtual machines around the server room so that at off-peak hours, 90% of all machines can be shut down. A 5MW machine room running at 0.5MW for even just one third of the day is a significant savings.
Security and performance isolation
Running different applications in their own virtual machines means that if one of your applications starts misbehaving, for example eating up all memory, the other applications on the same system will not get swapped out. This one misbehaving application will run slowly (but it would anyway), but the other applications will continue running like nothing happened.
A similar thing is true when one application gets compromised. Just that virtual machine (or part of it) will be under control of the attacker. As long as the virtual machines are well isolated from each other, which is typically the case in all virtualization technologies where each virtual machine runs its own kernel, the other virtual machines will be safe.
Container technologies, like Linux VServer, Virtuozzo/OpenVZ and Solaris Zones, typically have a lower degree of isolation, in exchange for lower overhead and more flexible resource use.
Source: Virtualization Technology
Educação :: Navegue protegido
Descubra como você pode se PROTEGER e ajudar as crianças a estarem em SEGURANÇA enquanto exploram a Internet.
http://www.navegueprotegido.com.br/
http://www.navegueprotegido.com.br/
quinta-feira, 27 de janeiro de 2011
Postado por
Unknown
Quase um quarto dos brasileiros sofre de depressão pós-férias, mostra estudo
Você acaba de voltar das férias e já sente uma falta de energia inexplicável, dores no corpo e um desânimo enorme ao cumprir suas obrigações? É bem provável que você esteja com depressão pós-férias, mal que aflige 23% dos brasileiros, segundo estudo realizado pela Isma-BR (International Stress Management Association no Brasil), instituição voltada para a investigação e gerenciamento do estresse.
Você já sofreu de depressão pós-férias?
A pesquisa contou com 540 profissionais de 25 a 60 anos de idade, residentes em São Paulo e em Porto Alegre, com uma média de tempo de trabalho de 12 anos.
Entre os participantes com diagnóstico de depressão pós-férias, os sintomas mais comuns foram dores musculares, incluindo cefaleia (comum a 87% deles), cansaço (83%), angústia (89%) e ansiedade (83%). Do total, 68% afirmaram usar medicamentos e 52% citaram o consumo de álcool como forma de aliviar o mal-estar.
A depressão pós-férias não deve ser confundida com o desconforto da segunda-feira, ou após um feriado prolongado, que produz sintomas menos intensos e duradouros, segundo a presidente da Isma-BR, Ana Maria Rossi.
Os profissionais mais vulneráveis à depressão pós-férias, segundo o levantamento, foram os de finanças, saúde, informática e aqueles que estão fora de sua área de formação. De acordo com Rossi, o mal-estar na volta ao trabalho não costuma durar mais do que duas semanas, tempo que corpo e mente levam para se readaptar à velha rotina.
Mas os sintomas são um indicativo de descontentamento com o ambiente de trabalho ou com o próprio ofício. A pesquisa mostrou que 93% das vítimas de depressão pós-férias se sentem insatisfeitas profissionalmente; 86% não veem possibilidade de promoção ou desenvolvimento; 71% consideram o ambiente de trabalho hostil ou pouco confiável; e 49% têm conflitos interpessoais no local de serviço.
Outro ponto detectado é que, quanto mais tempo no mesmo emprego, maiores as chances de sofrer de depressão pós-férias. "Muita gente sabe que o trabalho lhe faz mal, mas não sai por causa do salário ou de algum outro tipo de benefício", descreve. Essa relação de dualidade traz muita culpa e angústia, principalmente quando não há perspectivas de mudança: "Quando a pessoa sabe que o sofrimento é temporário, pois decide que vai ficar naquele trabalho só até cumprir determinada meta, fica mais fácil lidar com a insatisfação", pondera.
Busque compensações
A especialista ensina que, no mundo ideal, a solução mais adequada para o problema seria buscar um emprego que proporcionasse mais satisfação. "Mas a gente sabe que isso não é tão simples", admite.
A saída, então, é buscar compensações para a falta de motivação, procurando os amigos, dedicando-se a algum hobby prazeroso ou fazendo algum trabalho voluntário. "Sentir-se gratificado e saber que sua colaboração tem valor é importante até para manter a sanidade", justifica.
Fracione as férias
Outra maneira de reduzir o risco de depressão pós-férias é fracionar o período de descanso. Rossi garante que os benefícios da medida já foram comprovados em pesquisas do Isma e de outras instituições. No entanto, a legislação brasileira não permite que a pessoa divida as férias.
A especialista acredita que pelo menos três pausas de dez dias são o ideal, pois exigem menor mobilização para deixar as coisas em ordem antes de sair e evitam o acúmulo de pressões e demandas. "Quando o efeito da pausa anterior passa, a pessoa já tem um novo período de descanso", relata.
Não adie o descanso
Se você é do tipo que ama o que faz ou é viciado em trabalho, as férias podem até ser motivo de estresse. Nesse caso, o conselho é conciliar o período de descanso com algum curso. Como ressalta Rossi, deixar de fazer pelo menos uma pausa ao longo do ano prejudica muito a produtividade. E isso é algo que nem você, nem a empresa para a qual trabalha, vão querer que aconteça.
Fonte: UOL Ciência e Saúde
Você já sofreu de depressão pós-férias?
A pesquisa contou com 540 profissionais de 25 a 60 anos de idade, residentes em São Paulo e em Porto Alegre, com uma média de tempo de trabalho de 12 anos.
Entre os participantes com diagnóstico de depressão pós-férias, os sintomas mais comuns foram dores musculares, incluindo cefaleia (comum a 87% deles), cansaço (83%), angústia (89%) e ansiedade (83%). Do total, 68% afirmaram usar medicamentos e 52% citaram o consumo de álcool como forma de aliviar o mal-estar.
A depressão pós-férias não deve ser confundida com o desconforto da segunda-feira, ou após um feriado prolongado, que produz sintomas menos intensos e duradouros, segundo a presidente da Isma-BR, Ana Maria Rossi.
Os profissionais mais vulneráveis à depressão pós-férias, segundo o levantamento, foram os de finanças, saúde, informática e aqueles que estão fora de sua área de formação. De acordo com Rossi, o mal-estar na volta ao trabalho não costuma durar mais do que duas semanas, tempo que corpo e mente levam para se readaptar à velha rotina.
Mas os sintomas são um indicativo de descontentamento com o ambiente de trabalho ou com o próprio ofício. A pesquisa mostrou que 93% das vítimas de depressão pós-férias se sentem insatisfeitas profissionalmente; 86% não veem possibilidade de promoção ou desenvolvimento; 71% consideram o ambiente de trabalho hostil ou pouco confiável; e 49% têm conflitos interpessoais no local de serviço.
Outro ponto detectado é que, quanto mais tempo no mesmo emprego, maiores as chances de sofrer de depressão pós-férias. "Muita gente sabe que o trabalho lhe faz mal, mas não sai por causa do salário ou de algum outro tipo de benefício", descreve. Essa relação de dualidade traz muita culpa e angústia, principalmente quando não há perspectivas de mudança: "Quando a pessoa sabe que o sofrimento é temporário, pois decide que vai ficar naquele trabalho só até cumprir determinada meta, fica mais fácil lidar com a insatisfação", pondera.
Busque compensações
A especialista ensina que, no mundo ideal, a solução mais adequada para o problema seria buscar um emprego que proporcionasse mais satisfação. "Mas a gente sabe que isso não é tão simples", admite.
A saída, então, é buscar compensações para a falta de motivação, procurando os amigos, dedicando-se a algum hobby prazeroso ou fazendo algum trabalho voluntário. "Sentir-se gratificado e saber que sua colaboração tem valor é importante até para manter a sanidade", justifica.
Fracione as férias
Outra maneira de reduzir o risco de depressão pós-férias é fracionar o período de descanso. Rossi garante que os benefícios da medida já foram comprovados em pesquisas do Isma e de outras instituições. No entanto, a legislação brasileira não permite que a pessoa divida as férias.
A especialista acredita que pelo menos três pausas de dez dias são o ideal, pois exigem menor mobilização para deixar as coisas em ordem antes de sair e evitam o acúmulo de pressões e demandas. "Quando o efeito da pausa anterior passa, a pessoa já tem um novo período de descanso", relata.
Não adie o descanso
Se você é do tipo que ama o que faz ou é viciado em trabalho, as férias podem até ser motivo de estresse. Nesse caso, o conselho é conciliar o período de descanso com algum curso. Como ressalta Rossi, deixar de fazer pelo menos uma pausa ao longo do ano prejudica muito a produtividade. E isso é algo que nem você, nem a empresa para a qual trabalha, vão querer que aconteça.
Fonte: UOL Ciência e Saúde
quinta-feira, 13 de janeiro de 2011
Postado por
Unknown
Projeto vai desenvolver chip para acesso à web em áreas rurais
Atuar para facilitar o acesso à web nas áreas rurais e atender a demanda nessas localidades é o objetivo de um projeto de desenvolvimento de chip que vem sendo executado pela IC Desing House Nordeste, núcleo de pesquisas do Laboratório de Sistemas Integráveis Tecnológico Nordeste (LSI-TEC). A IC produzirá protótipos de equipamentos para provisão do Sistema de Rádio Cognitivo, no novo padrão IEEE 802.22, concebido especificamente para instalação de banda larga em áreas rurais com baixa densidade populacional.
O projeto Banda Larga para Área Rural tem como parceiros o MCT e o Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), que concedeu ao LSI-TEC Nordeste bolsas do Programa CI-Brasil na modalidade desenvolvimento tecnológico em semicondutores, no valor de R$ 1,5 milhão.
Segundo o Ministério de Ciência e Tecnologia (MCT), as principais vantagens do novo padrão são o maior raio de abrangência da estação radiobase, que se estende de 33 quilômetros a 100 quilômetros, e a capacidade de utilização de frequências livres para a transmissão de dados.
Iniciado em setembro do ano passado, o projeto deve se estender até fevereiro de 2012, quando será finalizado o desenvolvimento do chip. No início deste ano serão comprados, importados e instalados todos os equipamentos necessários para a implantação do laboratório. O projeto Rádio Cognitivo em Circuito Integrado para Banda Larga Rural obteve benefício financeiro do Programa de Incentivo à Inovação Tecnológica do Estado da Bahia (Inovatec).
Fonte: TI Inside
O projeto Banda Larga para Área Rural tem como parceiros o MCT e o Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), que concedeu ao LSI-TEC Nordeste bolsas do Programa CI-Brasil na modalidade desenvolvimento tecnológico em semicondutores, no valor de R$ 1,5 milhão.
Segundo o Ministério de Ciência e Tecnologia (MCT), as principais vantagens do novo padrão são o maior raio de abrangência da estação radiobase, que se estende de 33 quilômetros a 100 quilômetros, e a capacidade de utilização de frequências livres para a transmissão de dados.
Iniciado em setembro do ano passado, o projeto deve se estender até fevereiro de 2012, quando será finalizado o desenvolvimento do chip. No início deste ano serão comprados, importados e instalados todos os equipamentos necessários para a implantação do laboratório. O projeto Rádio Cognitivo em Circuito Integrado para Banda Larga Rural obteve benefício financeiro do Programa de Incentivo à Inovação Tecnológica do Estado da Bahia (Inovatec).
Fonte: TI Inside
Como usar as redes sociais sem perder a produtividade
Sites como Orkut, Facebook e Twitter já fazem parte do dia a dia, mas é preciso cuidado para que eles não virem ladrões de tempo.
Ao mesmo tempo em que as redes sociais podem ser aliadas do profissional, seja pela troca de informações como pelo network, ela pode ser uma grande fonte de distração para o trabalho.
Segundo um estudo da Workplace Options, empresa de serviços de suporte profissional, realizado com mais de 600 pessoas nos Estados Unidos, 23% dos entrevistados apontaram a tecnologia como a segunda maior causa de perda de produtividade, ficando atrás apenas das conversas de corredor (24%). Assim, fica a questão para o funcionário de hoje: como equilibrar o uso da tecnologia no trabalho sem comprometer a produtividade?
Na opinião de Christian Barbosa, especialista em administração do tempo e produtividade, o importante é que as pessoas se organizem para tirar benefícios das redes sociais, como o LinkedIn, o Twitter, o Orkut e o Facebook. "As redes sociais entraram para ficar na vida das pessoas. Bem aproveitadas, elas impulsionam negócios, ajudam a contratar talentos, fazem com que o funcionário relaxe e se comunique melhor. Mal utilizadas, elas se tornam mais um ladrão de tempo na sua rotina", avalia.
Por isso, Barbosa sugere algo simples para que as redes sociais não causem problemas: disciplina. Como falar é sempre mais fácil do que fazer, o especialista em gestão de tempo oferece dicas para que as redes sociais não comam todo o seu tempo. A primeira, diz Barbosa, é a relevância. "Escolha as redes mais relevantes e que tenham o maior número de pessoas conectadas a seus objetivos", explica. Afinal, quanto mais páginas para ver, mais tempo você gasta. O raciocínio também vale para o Twitter, caso você use essa rede. "Siga poucas pessoas, mas com perfil relevante."
Desabilitar os avisos de recados e mensagens é outra estratégia, segundo o especialista. "Se você receber um e-mail para cada scrap ou mensagem das redes sociais, vai perder um tempo que nem imagina", adverte Barbosa. Por fim, o especialista aconselha que sejam estabelecidos horários para visitar as redes sociais, como antes e depois do expediente. "Nada de ficar com as redes sociais abertas o tempo inteiro, já que isso faz com que as pessoas percam o foco."
Fonte: iG Economia
Ao mesmo tempo em que as redes sociais podem ser aliadas do profissional, seja pela troca de informações como pelo network, ela pode ser uma grande fonte de distração para o trabalho.
Segundo um estudo da Workplace Options, empresa de serviços de suporte profissional, realizado com mais de 600 pessoas nos Estados Unidos, 23% dos entrevistados apontaram a tecnologia como a segunda maior causa de perda de produtividade, ficando atrás apenas das conversas de corredor (24%). Assim, fica a questão para o funcionário de hoje: como equilibrar o uso da tecnologia no trabalho sem comprometer a produtividade?
Na opinião de Christian Barbosa, especialista em administração do tempo e produtividade, o importante é que as pessoas se organizem para tirar benefícios das redes sociais, como o LinkedIn, o Twitter, o Orkut e o Facebook. "As redes sociais entraram para ficar na vida das pessoas. Bem aproveitadas, elas impulsionam negócios, ajudam a contratar talentos, fazem com que o funcionário relaxe e se comunique melhor. Mal utilizadas, elas se tornam mais um ladrão de tempo na sua rotina", avalia.
Por isso, Barbosa sugere algo simples para que as redes sociais não causem problemas: disciplina. Como falar é sempre mais fácil do que fazer, o especialista em gestão de tempo oferece dicas para que as redes sociais não comam todo o seu tempo. A primeira, diz Barbosa, é a relevância. "Escolha as redes mais relevantes e que tenham o maior número de pessoas conectadas a seus objetivos", explica. Afinal, quanto mais páginas para ver, mais tempo você gasta. O raciocínio também vale para o Twitter, caso você use essa rede. "Siga poucas pessoas, mas com perfil relevante."
Desabilitar os avisos de recados e mensagens é outra estratégia, segundo o especialista. "Se você receber um e-mail para cada scrap ou mensagem das redes sociais, vai perder um tempo que nem imagina", adverte Barbosa. Por fim, o especialista aconselha que sejam estabelecidos horários para visitar as redes sociais, como antes e depois do expediente. "Nada de ficar com as redes sociais abertas o tempo inteiro, já que isso faz com que as pessoas percam o foco."
Fonte: iG Economia
sábado, 8 de janeiro de 2011
Postado por
Unknown
Inscrições para edital de capacitação em software vão até o dia 17
Os interessados em participar do edital para capacitação em software, que vai destinar R$ 3,5 milhões para implementar o programa de formação e capacitação de recursos humanos em software, têm até o dia 17 deste mês para encaminhar as Propostas ao Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq). Elas devem ser enviadas exclusivamente via internet, por intermédio do Formulário de Propostas Online, disponível na Plataforma Carlos Chagas (http://carloschagas.cnpq.br).
O edital visa estimular a qualificação de profissionais para atuar na indústria brasileira de software e serviços de TI, nas seguintes modalidades: Formação Expressa (FE) -atrair e capacitar profissionais de outras áreas em programação de computadores; Qualificação Tecnológica (QT) - qualificar profissionais da área de tecnologia da informação TI, em temas específicos de desenvolvimento e engenharia de software; Formação Curta-Média (CM) - capacitar profissionais para atuar na área de TI.
O valor máximo a ser investido por projeto na modalidade FE é de até R$ 60 mil; o da modalidade QT, de até R$ 70 mil e a modalidade CM podem ser oferecidos até R$ 200 mil por projeto. O edital busca ter uma estreita aderência aos objetivos e as metas do Plano de Ação 2007-2010: Ciência, Tecnologia e Inovação para o Desenvolvimento Nacional (PACTI 2007-2010) e da Política de Desenvolvimento Produtivo (PDP), para o setor de software e serviços de tecnologia da informação.
Podem participar proponentes que tenham currículo cadastrado na Plataforma Lattes e vínculo formal com a instituição de execução do projeto. As propostas a serem apoiadas devem ter seu prazo máximo de execução de 12 meses.
Fonte: TI Inside
O edital visa estimular a qualificação de profissionais para atuar na indústria brasileira de software e serviços de TI, nas seguintes modalidades: Formação Expressa (FE) -atrair e capacitar profissionais de outras áreas em programação de computadores; Qualificação Tecnológica (QT) - qualificar profissionais da área de tecnologia da informação TI, em temas específicos de desenvolvimento e engenharia de software; Formação Curta-Média (CM) - capacitar profissionais para atuar na área de TI.
O valor máximo a ser investido por projeto na modalidade FE é de até R$ 60 mil; o da modalidade QT, de até R$ 70 mil e a modalidade CM podem ser oferecidos até R$ 200 mil por projeto. O edital busca ter uma estreita aderência aos objetivos e as metas do Plano de Ação 2007-2010: Ciência, Tecnologia e Inovação para o Desenvolvimento Nacional (PACTI 2007-2010) e da Política de Desenvolvimento Produtivo (PDP), para o setor de software e serviços de tecnologia da informação.
Podem participar proponentes que tenham currículo cadastrado na Plataforma Lattes e vínculo formal com a instituição de execução do projeto. As propostas a serem apoiadas devem ter seu prazo máximo de execução de 12 meses.
Fonte: TI Inside
sexta-feira, 7 de janeiro de 2011
Postado por
Unknown
Tecnologias na Nuvem: talvez o maior desafio da sua carreira
Todo ano, no mês de outubro, o Gartner realiza o seu circuito mundial de simpósios. Começa nos Estados Unidos - é a nossa maior conferência anual, com cerca de oito mil participantes - e segue depois, em edições mais compactas, para França, África do Sul, Austrália, Japão e, a partir deste ano, Brasil. A ideia é apresentar um amplo panorama da tecnologia para apoiar os profissionais de TI que nesse momento estão fazendo seus planejamentos para o próximo ano.
Uma das apresentações mais esperadas nestes eventos é sobre "as 10 tecnologias transformadoras" que na nossa visão irão causar maior impacto nas empresas, nos próximos anos.
O processo por meio do qual se chega às 10 tecnologias - e só 10, é complicado e parece um pouco com um concurso, onde cada um dos 720 analistas do Gartner tem uma candidata preferida e é capaz de justificar, com doses iguais de racionalidade e paixão, o porquê ela deve estar entre as 10 mais. Enfim, os coordenadores do processo, com muita racionalidade e pouca paixão, conduzem uma série de reuniões de avaliação que vão reduzindo as candidatas até sobrarem apenas 10. Esta é a lista de 2010:
1 - Computação em nuvem
2 - Dispositivos móveis e tabletes
3 - Análise de BI avançada
4 - Análise social
5 - Tecnologias de mídias sociais
6 - Vídeo como mídia e como conteúdo
7 - Percepção de contexto computacional ("context awareness computing")
8 - Computação em todos os lugares ("ubiquitous computing")
9 - Memória flash
10 - Computação em malha de rede ("fabric computing")
A computação na nuvem apareceu de repente entre as dez mais, já em segundo lugar, em 2007. Chegou a primeiro em 2008 e permanece aí em 2009 e 2010.
Os critérios para que uma tecnologia possa aspirar uma posição na lista - e, portanto, merecer a atenção das empresas - são que ela deve ser estratégica e "perturbadora" ("disruptive", em inglês).
Uma tecnologia é considerada estratégica se nós percebemos que sua implementação e seu uso podem trazer significativo impacto na empresa nos próximos anos: mudanças nos negócios, mais valor e mais competitividade. E ela é perturbadora quando pode transformar pessoas, processos e tecnologia através de soluções novas e radicais, imaturas, por definição, que trazem riscos novos e significativos - e também recompensas novas e significativas e, por isso, são adotadas.
A computação em nuvem é uma família de tecnologias muito diversas (mais um zoológico que uma família), que têm em comum um conjunto básico de características: são oferecidas sempre como serviços, que são escaláveis e elásticos, padronizados, compartilhados entre muitos clientes, pagos pelo uso e entregues através da Web. Já existem serviços na nuvem sendo oferecidos em cada camada da arquitetura tecnológica. Por exemplo, "infrastructure utility" (infraestrutura), "application platform as a service" (plataforma), "software as a service" (aplicação), "Web engine" (acesso a conteúdo) e "business process utility" (processo).
O potencial mais evidente dessas tecnologias é revolucionar a equação econômico-financeira de como uma empresa adquire e paga TI. São tecnologias que exigem investimentos praticamente nulos, transformando custos fixos em custos variáveis. Além disso, como são pagas pelo uso, em princípio, a curva de gastos é paralela à curva de receitas. Mas não é só isso. Com suas características de agilidade, flexibilidade, escalabilidade e acesso, podem revolucionar o desenho de processos de negócio. Essa inovação trazida por processos de negócio radicalmente novos deve resultar em um salto no valor que TI entrega ao negócio.
O autor canadense Don Tapscott ("Wikinomics") diz nas suas palestras ao redor do mundo: "Devemos começar a pensar na Web como um único e gigantesco computador. Todos os negócios estarão aí". É uma visão poética e provocadora, que não necessariamente vai se converter numa realidade para todas as empresas. Mas todas - que hoje têm arquiteturas tradicionais - precisam começar a caminhar na direção a uma arquitetura mais amigável à Web.
E aí entram os profissionais de TI.
Na pesquisa que fizemos entre CIOs de todo o mundo no final de 2009, os CIOs brasileiros se mostraram muito mais inclinados à adoção de serviços na nuvem que seus colegas de outras partes do mundo. De fato, faz sentido. Com orçamentos de TI mais limitados que seus competidores lá fora, o CIO brasileiro percebe os serviços na nuvem como uma alternativa viável para a adoção de tecnologias de ponta, que coloquem sua empresa em paridade tecnológica global. Aí, com um pouco de criatividade no uso dessas tecnologias, combinando componentes dos serviços na nuvem de maneira inovadora, as empresas brasileiras podem conseguir o diferencial competitivo necessário.
Pensando assim, eu esperava ver em 2010 uma forte aceleração na adoção desses novos serviços e, na verdade, pouco ou quase nada aconteceu. Como se pode explicar esse comportamento, contrariando na prática o que havia sido dito na pesquisa?
Para mim, parece que existem duas explicações complementares. A primeira é uma reação à imaturidade dos serviços. Esses serviços trazem uma combinação desafiadora de duas características: de um lado, trazem riscos novos, que não sabemos gerir; de outro, os serviços nas nuvens já chegam prontos, os clientes têm muito pouca possibilidade de gestão sobre eles. A segunda explicação me parece mais subjetiva e pouco percebida (ou discutida).
Talvez inconscientemente, os profissionais de TI receiem adotar os serviços na nuvem por não terem as competências profissionais para a nova situação. De fato, as regras mudam completamente. Muda completamente a maneira como se deve especificar, escolher, contratar e gerir um serviço na nuvem. Ser um grande especialista em quaisquer das tecnologias que foram críticas na TI tradicional já não garante um desempenho superior nesse novo mundo.
É verdade que poucas empresas precisam completar a transição para uma arquitetura totalmente centrada na Web. Também é verdade que essa transição, mesmo que parcial, vai levar algum tempo. Mas certamente todas as empresas precisam iniciar essa jornada. Agora. O valor potencial a ser entregue pela nova TI ao negócio é muito grande para deixar para depois.
E aí voltamos aos profissionais de TI. Eles têm que liderar essa transição. Eles têm que indicar os novos caminhos ao pessoal de negócios. Eles têm que mostrar como obter muito mais valor para os negócios com as novas tecnologias. Em contrapartida, internamente eles têm que estar dispostos a iniciar a jornada que vai transformar a antiga área de TI em uma organização que esteja preparada para entregar valor ao negócio a partir dos novos serviços.
Na verdade, o fato de serem especialistas em uma ou outra tecnologia talvez não seja a característica mais importante dos profissionais de TI. Em minha opinião, o que caracteriza esses profissionais e o que os torna valiosos para suas empresas, é o seguinte: um grupo de profissionais de alto nível, com competências diversificadas (informação, processos, organização e tecnologias), em geral criativos, que têm a capacidade de trabalhar colaborativamente na criação de soluções de negócios. É isso que torna a área estratégica para todas as empresas, usando TI, tecnologias na nuvem ou quaisquer outras que sejam necessárias.
Bem-vindo à nova área de Gestão de Tecnologias de Negócios!
Fonte: TI Inside
Uma das apresentações mais esperadas nestes eventos é sobre "as 10 tecnologias transformadoras" que na nossa visão irão causar maior impacto nas empresas, nos próximos anos.
O processo por meio do qual se chega às 10 tecnologias - e só 10, é complicado e parece um pouco com um concurso, onde cada um dos 720 analistas do Gartner tem uma candidata preferida e é capaz de justificar, com doses iguais de racionalidade e paixão, o porquê ela deve estar entre as 10 mais. Enfim, os coordenadores do processo, com muita racionalidade e pouca paixão, conduzem uma série de reuniões de avaliação que vão reduzindo as candidatas até sobrarem apenas 10. Esta é a lista de 2010:
1 - Computação em nuvem
2 - Dispositivos móveis e tabletes
3 - Análise de BI avançada
4 - Análise social
5 - Tecnologias de mídias sociais
6 - Vídeo como mídia e como conteúdo
7 - Percepção de contexto computacional ("context awareness computing")
8 - Computação em todos os lugares ("ubiquitous computing")
9 - Memória flash
10 - Computação em malha de rede ("fabric computing")
A computação na nuvem apareceu de repente entre as dez mais, já em segundo lugar, em 2007. Chegou a primeiro em 2008 e permanece aí em 2009 e 2010.
Os critérios para que uma tecnologia possa aspirar uma posição na lista - e, portanto, merecer a atenção das empresas - são que ela deve ser estratégica e "perturbadora" ("disruptive", em inglês).
Uma tecnologia é considerada estratégica se nós percebemos que sua implementação e seu uso podem trazer significativo impacto na empresa nos próximos anos: mudanças nos negócios, mais valor e mais competitividade. E ela é perturbadora quando pode transformar pessoas, processos e tecnologia através de soluções novas e radicais, imaturas, por definição, que trazem riscos novos e significativos - e também recompensas novas e significativas e, por isso, são adotadas.
A computação em nuvem é uma família de tecnologias muito diversas (mais um zoológico que uma família), que têm em comum um conjunto básico de características: são oferecidas sempre como serviços, que são escaláveis e elásticos, padronizados, compartilhados entre muitos clientes, pagos pelo uso e entregues através da Web. Já existem serviços na nuvem sendo oferecidos em cada camada da arquitetura tecnológica. Por exemplo, "infrastructure utility" (infraestrutura), "application platform as a service" (plataforma), "software as a service" (aplicação), "Web engine" (acesso a conteúdo) e "business process utility" (processo).
O potencial mais evidente dessas tecnologias é revolucionar a equação econômico-financeira de como uma empresa adquire e paga TI. São tecnologias que exigem investimentos praticamente nulos, transformando custos fixos em custos variáveis. Além disso, como são pagas pelo uso, em princípio, a curva de gastos é paralela à curva de receitas. Mas não é só isso. Com suas características de agilidade, flexibilidade, escalabilidade e acesso, podem revolucionar o desenho de processos de negócio. Essa inovação trazida por processos de negócio radicalmente novos deve resultar em um salto no valor que TI entrega ao negócio.
O autor canadense Don Tapscott ("Wikinomics") diz nas suas palestras ao redor do mundo: "Devemos começar a pensar na Web como um único e gigantesco computador. Todos os negócios estarão aí". É uma visão poética e provocadora, que não necessariamente vai se converter numa realidade para todas as empresas. Mas todas - que hoje têm arquiteturas tradicionais - precisam começar a caminhar na direção a uma arquitetura mais amigável à Web.
E aí entram os profissionais de TI.
Na pesquisa que fizemos entre CIOs de todo o mundo no final de 2009, os CIOs brasileiros se mostraram muito mais inclinados à adoção de serviços na nuvem que seus colegas de outras partes do mundo. De fato, faz sentido. Com orçamentos de TI mais limitados que seus competidores lá fora, o CIO brasileiro percebe os serviços na nuvem como uma alternativa viável para a adoção de tecnologias de ponta, que coloquem sua empresa em paridade tecnológica global. Aí, com um pouco de criatividade no uso dessas tecnologias, combinando componentes dos serviços na nuvem de maneira inovadora, as empresas brasileiras podem conseguir o diferencial competitivo necessário.
Pensando assim, eu esperava ver em 2010 uma forte aceleração na adoção desses novos serviços e, na verdade, pouco ou quase nada aconteceu. Como se pode explicar esse comportamento, contrariando na prática o que havia sido dito na pesquisa?
Para mim, parece que existem duas explicações complementares. A primeira é uma reação à imaturidade dos serviços. Esses serviços trazem uma combinação desafiadora de duas características: de um lado, trazem riscos novos, que não sabemos gerir; de outro, os serviços nas nuvens já chegam prontos, os clientes têm muito pouca possibilidade de gestão sobre eles. A segunda explicação me parece mais subjetiva e pouco percebida (ou discutida).
Talvez inconscientemente, os profissionais de TI receiem adotar os serviços na nuvem por não terem as competências profissionais para a nova situação. De fato, as regras mudam completamente. Muda completamente a maneira como se deve especificar, escolher, contratar e gerir um serviço na nuvem. Ser um grande especialista em quaisquer das tecnologias que foram críticas na TI tradicional já não garante um desempenho superior nesse novo mundo.
É verdade que poucas empresas precisam completar a transição para uma arquitetura totalmente centrada na Web. Também é verdade que essa transição, mesmo que parcial, vai levar algum tempo. Mas certamente todas as empresas precisam iniciar essa jornada. Agora. O valor potencial a ser entregue pela nova TI ao negócio é muito grande para deixar para depois.
E aí voltamos aos profissionais de TI. Eles têm que liderar essa transição. Eles têm que indicar os novos caminhos ao pessoal de negócios. Eles têm que mostrar como obter muito mais valor para os negócios com as novas tecnologias. Em contrapartida, internamente eles têm que estar dispostos a iniciar a jornada que vai transformar a antiga área de TI em uma organização que esteja preparada para entregar valor ao negócio a partir dos novos serviços.
Na verdade, o fato de serem especialistas em uma ou outra tecnologia talvez não seja a característica mais importante dos profissionais de TI. Em minha opinião, o que caracteriza esses profissionais e o que os torna valiosos para suas empresas, é o seguinte: um grupo de profissionais de alto nível, com competências diversificadas (informação, processos, organização e tecnologias), em geral criativos, que têm a capacidade de trabalhar colaborativamente na criação de soluções de negócios. É isso que torna a área estratégica para todas as empresas, usando TI, tecnologias na nuvem ou quaisquer outras que sejam necessárias.
Bem-vindo à nova área de Gestão de Tecnologias de Negócios!
Fonte: TI Inside
Postado por
Unknown