quinta-feira, 29 de maio de 2014

LinkedIn ultrapassa Twitter no Brasil como rede social mais usada

Autora: Jacqueline Lafloufa

Dados liberados pela comScore trazem informações interessantes sobre o consumo digital do brasileiro. Em termos de redes sociais, somos muito engajados – passamos mais tempo no Facebook do que a somatória do que argentinos e mexicanos gastam online juntos em um mês (!).

Com a 5ª maior audiência online do mundo (foram 68,1 milhões de visitantes únicos em fevereiro deste ano, sem considerar a audiência vinda de dispositivos móveis) e o 3º lugar em total de minutos conectado, o Brasil é o maior expoente digital da América Latina e um dos líderes de engajamento online. Concentramos 29,7 horas de navegação mensais, 7 horas a mais do que a média global.

Entre os principais sites acessados pelos brasileiros, o Facebook continua hegemônico em primeira colocação, bem distante dos outros concorrentes. O destaque fica para o LinkedIn, que com um crescimento de 11% no último ano conquistou a 2ª colocação no ranking, ultrapassando o Twitter (3º lugar), Tumblr (4º) e Ask.fm (5º).

O tempo investido nessas redes, contudo, não obedece à mesma ordem. Salvo o Facebook, que retém 97,8% do total de horas investidas pelos usuários, o Twitter ainda se destaca na 2ª posição (0,7% do total gasto em redes sociais), seguido pelo Tumblr (0,6%), Ask.fm (0,5%), Orkut (0,3% !!) e LinkedIn (0,2%).

Os dados completos sobre o acesso digital dos brasileiros em 2014 e as tendências para 2014 podem ser conferidos no relatório da comScore (NESSE LINK) e no Slideshare abaixo.

FONTE: CorpTV

terça-feira, 27 de maio de 2014

Videoconferência: vantagens para o meu negócio

Autor: Carlos Oliveira

Na forma tradicional, uma conferência reúne diversas pessoas em um mesmo lugar, a fim de se discutir um assunto relevante. No ambiente empresarial, as conferências são frequentes, em maior ou menor escala, pois normalmente se trata de equipes de trabalho que precisam estar alinhadas. Cada vez mais o trabalho ultrapassa os limites da empresa, da cidade, do estado e do país. Por isso, reunir as pessoas pode ser um problema, seja por questões de custo, de tempo ou de resultado.

Essa desterritorialização do trabalho gerou algumas demandas e, dentre elas está o recurso da videoconferência. Ela reproduz o conceito da conferência tradicional, com a diferença de que os participantes não estão no mesmo lugar, sendo mediados pela tecnologia.

Como funcionam as videoconferências
A comunicação se dá em tempo real entre esse grupo, em vídeo e áudio, independentemente de sua localização geográfica. Ou seja: a distância não é mais um problema, de modo que o recurso da videoconferência permite trabalhar forma cooperativa, ou colaborativa, sem a necessidade de se locomover geograficamente.

Em grande parte, o sistema de videoconferência implica em uso de equipamento específico, sala adequada em cada local, e conexão banda larga com trânsito fluido de informações. Mais recentemente, aplicativos on line também atuam na área, resolvendo a necessidade em muitos casos. Trata-se da videoconferência desktop, como ficou primeiramente chamada, que pode ser executada do seu próprio computador, smartphone ou tablet.

Vantagens das videoconferências
A aplicação da videoconferência tem uma série de vantagens:

- Economiza tempo, sem a necessidade de as pessoas se deslocarem até o mesmo lugar;

- Economiza recursos, pois reduz os gastos com deslocamentos;

- Fornece material instantaneamente, já que pode ser gravada para consulta posterior.

Neste momento, o sistema de videoconferência conta com uma série de aplicativos integrados que permitem visualizar e alterar o que está sendo discutido em plataforma digital, compartilhar aplicações além do compartilhamento instantâneo de arquivos.

Sem dúvida, trata-se de um dos itens essenciais da comunicação unificada da sua empresa.

Comunicação unificada
Um sistema de comunicações unificadas bem planejado é fundamental para qualquer empreendimento, já que poupa tempo e dinheiro para qualquer organização. É preciso investir na tecnologia adequada, estudá-la e usufruir dos benefícios, que em um curto espaço de tempo mudarão o modo como as coisas acontecem. Mas não faça as coisas por conta; consulte um especialista em TI.

A comunicação unificada integra as informações como um todo, facilitando o desempenho dos funcionários, que podem inclusive trabalhar a distância.

Caso
O Conselho Nacional de Justiça (CNJ) adotou um sistema de videoconferências, que permitiu uma economia de recursos ao órgão significativa, especialmente em diárias e passagens, além de ampliar a eficiência do trabalho dos profissionais envolvidos, em seus diversos programas e ações.

Estima-se que o sistema, em um ano, gerou em torno de R$ 440 mil de economia em 23 reuniões virtuais que tiveram por objeto a implantação do Processo Judicial Eletrônico (PJe).

A estimativa, como apontado anteriormente, considera a média de gastos com passagens aéreas e diárias consumidas caso as reuniões fossem presenciais, em um mesmo local (Brasília), levando em conta a participação de dez juízes e dois membros do Ministério Público (MP) e da Ordem dos Advogados do Brasil (OAB), que juntos compõem o Comitê Gestor.


Portanto, não tenha dúvidas. Avalie a sua necessidade, contabilize seus gastos e invista em um sistema de videoconferência. A economia é certa.

FONTE: CorpTV

Comunicação Integrada

Para Philip Kotler, o conceito de Comunicação Integrada abrange a análise das funções estratégicas de cada atividade de comunicação, bem como sua integração contínua e permanente, somando esforços para que a mensagem seja concisa a e uniforme. Cada empresa deve coordenar e orientar seus canais de comunicação, com o objetivo claro de propagar uma única mensagem que seja coerente com seus princípios.

Uma outra abordagem sobre o tema é da professora e estudiosa Margarida Kunsch, que entende a comunicação como algo sinérgico e une a comunicação institucional com a mercadológica somadas a interna, que juntas formam um tripé da comunicação organizacional, onde o conjunto de cada setor resulta em uma comunicação eficiente e harmônica.

Todas as especialidades da comunicação denominadas de ferramentas, Jornalismo, Relações Públicas, Marketing, Publicidade e Propaganda e demais, fazem parte de um composto de comunicação e suas funções são tidas como potenciais quando integradas a um único objetivo. Com isso, a sinergia da informação deve permitir que a comunicação seja eficiente e os objetivos e resultados sejam ampliados. Sendo seu foco principal, a concentração no negócio da empresa e a comunicação articulada e profissional, de forma a destacar a identidade da companhia.

Para tanto, a gestão de comunicação de qualquer empresa deve se antecipar aos fatos e apresentar uma política eficaz e transparente, cuja mensagem se apresente de acordo com as estratégias da companhia. Logo, é importante destacar que um dos diferenciais e pontos de maior atenção é a capacitação técnica dos profissionais que atuam na área, os quais devem desenvolver uma visão multidisciplinar de todas as atividades da comunicação.

Portanto, a comunicação da empresa deve somar os esforços de todas as especialidades citadas, pois a imagem da organização deve se manter única seja para qualquer público potencial. O profissional que acionará e fará o monitoramento desta comunicação, deve estar atento a todas as informações e ações dos concorrentes, com o objetivo de traçar estratégias e alcançar seu objetivo, utilizando as melhores e mais adequadas formas de comunicação. Dentre as principais funções deste profissional, está o desenvolvimento da mensagem adequada, a seleção ideal do canal de divulgação, a promoção e a decisão de qual composto será utilizado e por fim mensurar e administrar todo processo da chamada comunicação integrada.

É importante relembrar que toda imagem e notoriedade de uma organização é construída com a junção e o auxílio de todas as disciplinas de comunicação, as quais unem seus esforços para alcançar a projeção ideal da empresa para seu público e todas as ações desenvolvidas de forma unida, poderão tornar mais eficaz o alcance destes objetivos pretendidos. Por fim, a comunicação integrada se tornou cada vez mais valorizada dentro das empresas, uma vez que suas ações são estratégicas, além de fundamental característica interdisciplinar.


Quer conhecer ferramentas de Comunicação Corporativa e saber como a tecnologia pode integrar o relacionamento entre todos os setores da sua empresa? CLIQUE AQUI e acesse o site da CorpTV.

FONTE: CorpTV

Big Data e indústria: é hora de entender e aprender a usar

Autor: Camilo Rubim

Quem trabalha no setor de tecnologia da informação já ouviu falar, e muito, sobre o conceito de Big Data. É bom clarificar o conceito também para os nossos parceiros de negócios da indústria automotiva, pois é questão de tempo, e pouco tempo, para que também comecem a lidar com ele.

Big Data são dados digitais (tesouro digital que se bem minerado torna-se verdadeiro diamante) que estão disponíveis em centenas ou milhares de banco de dados, sejam eles fechados (proprietários) ou abertos (redes sociais); sejam eles estruturados (dados armazenados em bancos de dados tradicionais) ou não estruturados (dados como áudio, imagens, vídeos, sensores). Eles só fazem sentido se apropriadamente minerados e correlacionados e é aí que entram as soluções tecnológicas, sobretudo na análise de dados não estruturados.

É preciso deixar claro que, quando falamos desse tipo de solução, não falamos apenas de uma solução de BI (Business Intelligence) ou ainda BI de alto desempenho (HANA ou Exadata). Para fazer uma boa análise destes dados, é necessário observarmos três dimensões: volume (quantidade de dados), velocidade (rapidez em que um novo dado é armazenado) e variedade (tipo de dado, texto, desenho, foto, vídeo, etc.). Também é importante observar dois outros, que são veracidade (confiabilidade do dado) e valor (beneficio gerado pelo dado).

Entender o potencial do Big Data pode levar as empresas a um novo patamar e trazer um diferencial competitivo. Na indústria automotiva, por exemplo, ele pode ser aplicado em diversas áreas de negócio, como na Otimização de Produtos através da identificação rápida do desejo dos consumidores; correção de defeitos (desvios de produção); análise de dados de garantia etc.

Outro exemplo está nas áreas de Vendas e Pós-vendas através da análise anônima do comportamento do consumidor, intervalo de manutenção do veículo, monitoração de produtos em garantia, recalls etc. Um velho ditado ainda se aplica hoje em dia: "Vendas vende primeiro, Pós-Venda vende o resto”. Atualizando, vale dizer que o uso sofisticado dos dados derivados de comportamento do cliente ajuda a gerenciar melhor o processo de pós-venda e, consequentemente, fidelizar e satisfazer o cliente.

Outro exemplo na indústria automotiva está relacionado ao GPS. Hoje muitos automóveis saem de fábrica com dispositivos de localização instalados e eles trazem grandes oportunidades de extração de dados e integração desses dados com seguradoras, por exemplo, que podem avaliar de forma mais efetiva o comportamento do usuário enquanto dirige, e assim obter um perfil mais preciso deste cliente. O GPS pode fornecer dados muito interessantes sobre o usuário como percursos rotineiros, estradas utilizadas, shoppings, restaurantes etc., sempre observando as questões de privacidade das informações envolvidas.

O mercado brasileiro está em fase de estudo e amadurecimento e a Internet das Coisas (IoC) ou Comunicação Máquina a Máquina (M2M), deve contribuir significativamente para uma sociedade mais conectada, ampliando ainda mais o fenômeno de uso das redes sociais no País. Por conta disso, as organizações estão começando a enxergar os benefícios de investir em análise de dados. No caso da indústria, o foco das iniciativas de Big Data deve ser colocado em áreas que possam promover valor ao negócio, pois no momento é difícil obter retorno sobre o investimento em projetos dessa natureza.

Para isso, é preciso levar em conta que a plataforma de Big Data é composta por três camadas: na primeira estão os dados digitais, estruturados e não estruturados, tais como bancos de dados tradicionais e dados disponíveis nas redes sociais (Google, Yahoo, Facebook, YouTube, Linkedin, Twitter, Instagram, etc.). Na segunda camada entra a primeira solução tecnológica, que tem por objetivo fazer a varredura nos dados digitais de acordo com premissas pré-definidas, selecionar os dados que foram objeto da busca e exportá-los para um banco de dados. Este será a base para a terceira camada, onde entram soluções tecnológicas como análise dos dados, tomadas de decisões, algoritmos, formatação de apresentação etc.

Para projetos assim, é importante a escolha de parceiros que atuem em três etapas: Planejamento, Construção e Execução. Na primeira fase de Planejamento é realizada uma “avaliação de preparo do Big Data” ou Big Data Readiness Assessment. É aqui que se vai entender claramente os objetivos, aplicações existentes, definir arquitetura, produtos e tecnologias a serem aplicadas.

A segunda etapa é a Construção, ou o Desenvolvimento do Big Data, com a criação de métodos, regras e indexadores para transformação dos dados que estão sendo importados e que mais tarde devem se tornar partes fundamentais na tomada de decisões de nossos clientes. A terceira etapa é responsável pela Execução. Aqui entra a operação, gerenciamento e monitoramento das estruturas de dados e aplicações que sustentam o Big Data, usando conceitos específicos que garantam analise de qualquer volume e variedade de informações.


Tudo parece novo, mas falamos aqui de conceitos que estão batendo com força à nossa porta. Quanto antes abrirmos, mais rápido aprenderemos a obter valiosíssimas vantagens competitivas deles.

FONTE: CorpTV

Publicidade cross-device é prioridade para anunciantes e agências

À medida que consumidores trocam de dispositivos várias vezes ao dia, anunciantes tentam acompanhá-los com campanhas cross-device. Segundo dados divulgados em fevereiro deste ano pela Conversant, a maioria (59%) das agências e anunciantes sêniores dos EUA citaram esse formato publicitário como prioridade para este ano.

Um estudo da Bovitz divulgado em abril aponta que a publicidade para múltiplos devices é o principal tópico de interesse para os profissionais de mídia norte-americanos. Saber mais a respeito dessa tendência é a prioridade para 70% dos executivos que responderam ao questionário.

A publicidade em social media, por sua vez, foi a tendência digital menos citada (41%), possivelmente pelo fato de que os profissionais tiveram alguns anos para se aprofundarem no tema, segundo análise do eMarketer. Entretanto, o estudo também constata que o social foi o canal de mídia menos utilizado pelos compradores de mídia dos EUA, sendo citado por oito entre dez participantes.

O meio mais utilizado pelos executivos do país é o display (97%). Utilizado por nove entre dez executivos, o mobile ocupa o terceiro lugar.

FONTE: CorpTV

sexta-feira, 23 de maio de 2014

5 maiores erros de segurança da informação cometidos pelas empresas

A maioria das companhias no Brasil ainda precisa aprender a interpretar e enfrentar problemas relacionados à proteção de dados.

De acordo com o Arcon Labs, equipe de inteligência que analisa tendências de ameaças e promove estudos, recomendações, normas e padrões técnicos, a maturidade do País vem evoluindo. Entretanto o mercado local está atrás de regiões como México, Peru, Argentina e Chile quando o assunto é o investimento em segurança da informação.

Estudo recente da Arcon identificou cinco grandes erros cometidos pelas empresas. São eles:

1- Foco em estratégias
Quando se fala em segurança de dados, o ideal não é priorizar apenas as estratégias. Elas são importantes, mas os níveis tático e operacional, cujos objetivos principais são executar os planejamentos das ações, devem ser considerados.

“Para vencer uma batalha, além das estratégias, é preciso que os soldados estejam 100% preparados para o combate, conheçam as armas e tenham um bom condicionamento físico. É assim também com a segurança da informação”, explica Wander Menezes, especialista em Segurança da Informação do Arcon Labs.

De acordo com o executivo, a parte operacional e tática deve ser exercida por profissionais que entendam, em profundidade, as ameaças e vulnerabilidades e saibam utilizar de forma eficiente recursos para detecção, análise, mitigação e erradicação de ameaças, amparados por uma estrutura adequada para o trabalho.

Para o especialista, são estes profissionais que trazem a inteligência técnica e operacional da segurança para dentro da instituição a fim de proteger o negócio.

2- Não perceber investimento em segurança é como uma poupança
Muitas vezes a terceirização de serviços é a última opção para a proteção dos dados. Porém, contar com o conhecimento de empresas especializadas ao invés de concentrar os esforços dentro de casa pode ajudar, inclusive, na avaliação dos custos de perdas e riscos que as ameaças representam para os negócios.

“As empresas precisam entender que a compra de ativos, na verdade, pode ser um canal para poupar dinheiro. Para isso é necessário avaliar o investimento mais apropriado para suportar o negócio. Exemplo: é possível que uma empresa invista US$ 100 em uma solução de segurança e economize US$ 1 mi em perdas em um determinado período”, explica Menezes.

3- Conceder privilégios em excesso aos usuários
Em segurança da informação, 80% do trabalho das equipes (estratégica, tática e operacional) está focado em criar, manter, disponibilizar e auditar acessos para minimizar o uso indevido da informação e ataques dentro e fora de uma organização.

Manter usuários com excesso de privilégios como acesso aos controles administrativos, não avaliar a entrada e saída de dados em aplicações (seja qual for), permitir que possam acessar mais informações do que de fato está estabelecido em suas funções e não estabelecer políticas de senhas são pontos que podem gerar vulnerabilidades.

Por isso é sugerido negar um acesso antes de concedê-lo. É preciso primeiro entender efetivamente a necessidade da demanda e se não tiver certeza de que é um acesso seguro, simplesmente, recomenda-se que negue o pedido. Além disso, colaboradores devem ter entrada em ferramentas (sala, sistema, rede e etc.) que sejam necessárias para o exercício de suas funções.

4- Não entender que segurança é um ecossistema complexo e está em constante transformação
A tecnologia muda e evolui para o bem e para o mal. A cada dia, milhares de malwares – softwaresdestinados a se infiltrarem em um sistema de computador alheio de forma ilícita, com o intuito de causar alguns danos, alterações ou roubo de informações (confidenciais ou não) – são criados e em algum momento é fato que conseguirão invadir os dados de uma empresa.

“O grande ponto é estar preparado e ter a contramedida adequada para o problema. Apesar de parecer fácil, não é tão simples quanto parece”, afirma Menezes. O especialista explica que é necessário entender o ecossistema que está sendo atacado e pensar em todos os outros controles que trabalham juntos, de forma que seja possível criar camadas de proteção para todos os níveis.

5- Dar prioridade às normas e não às políticas de segurança da informação
Para a maioria das empresas no Brasil, o mais importante é passar nas avaliações da auditoria e atender as normatizações. Manter o negócio seguro é avaliado em um segundo momento e este é o principal motivo do gasto desnecessário com serviços que não refletem em controles de segurança para os negócios.

“Sem regra não tem jogo. Por isso, antes das empresas pensarem em normas, devem avaliar a implementação de uma política de segurança”, explica o especialista em Segurança da Informação do Arcon Labs.


Menezes alerta que a maioria das companhias no Brasil não classifica as informações contidas em seus servidores e em suas estações de trabalho. “Se uma empresa não possui a cultura ou não vê a necessidade de classificação da informação, está fadada ao vazamento de dados e perdas financeiras ou de imagem”, explica.

FONTE: CorpTV

Por que as marcas devem ser mais ágeis na social media?

Hoje, oito entre dez empresas acreditam que oferecem atendimento diferenciado a seus clientes na social media. Por outro lado, nove entre dez consumidores discordam. Segundo eles, as marcas não acompanham o alto nível de engajamento nos canais sociais.

O infográfico desenvolvido pela Brickfish aponta que, em média, as marcas respondem apenas 20% das mensagens que exigem maior atenção, enquanto aquelas que respondem à maioria das questões demoram 15 horas no Facebook e quase 8 horas no Twitter. Confira:

FONTE: CorpTV

quarta-feira, 21 de maio de 2014

Oito dicas para reinventar sua marca com ações simples

Com o aumento do poder de decisão dos consumidores, cada vez mais presentes em redes sociais e conectados pelos smartphones, as empresas estão sendo obrigadas a se reinventar todos os dias. Os antigos modelos de negócios não funcionam mais no cenário atual. As organizações precisam tonar sua marca atrativa e ser mais inovadores para se diferenciar no mercado.

Para ajudar as companhias a enfrentarem esse desafio, Maurício Conti, Co-fundador e CEO da Burst, agência que utiliza conceitos de startup thinking no desenvolvimento de novos produtos e serviços, faz algumas recomendações. Ele traçou oito dicas sobre como as marcas podem se reinventar no mercado por meio de ações simples, mas que podem trazer resultado significativos.

1- Use a força do crowdsourcing
Profissionais brilhantes estão disponíveis para projetos inovadores. Se, para executar um projeto, você precisa de uma mão de obra super especializada, ela está muito mais disponível hoje em dia.

Com o avanço da importância da inovação e dos processos criativos, cada vez mais profissionais de ponta estão deixando as empresas e se dedicando a projetos específicos. Essa realidade cria um ciclo virtuoso para a inovação que as startups, por exemplo, estão aproveitando muito bem e que também está disponível para as grandes empresas.

2- Pense no mundo, não só no Brasil
Hoje não há limites geográficos, nem para o produto nem para a contratação de profissionais. O que existem são limites de distribuição. Como cada vez mais as marcas precisaram entregar valor intangível, menores serão essas barreiras de distribuição. Só que, para isso, grandes empresas precisarão mudar o mindset, pois obstáculos que antes as protegiam estão simplesmente ruindo.


Isso não significa que pode-se levar ao mercado produtos pela metade ou mal acabados. Significa que a evolução de um projeto não precisa mais esperar os ciclos de produção.

O potencial das impressoras 3D, dos dispositivos de hardware como o Arduino, estão ai para provar a tese. Com equipamentos de uso geral os investimentos de produção, principalmente em pequena escala caem violentamente o ciclo de retorno torna-se extremamente rápido, numa escala inimaginável há 20 anos.

4- Ideias pré-concebidas matam ideias novas
Grande parte do raciocínio de inovação, nas empresas, está baseada em um raciocínio evolutivo. É o que se costuma chamar de inovação incremental. Essa premissa, que nasce da necessidade das empresas de preservar suas posições de mercado e rentabilizar investimentos anteriores, mata a possibilidade de criação de inovação disruptiva, que efetivamente cria novos espaços de mercado.

As empresas precisam criar espaços onde as pessoas possam não saber como as "coisas funcionam". Só assim elas conseguirão realmente projetar coisas novas.

5- Planeje o mínimo necessário, não o máximo possível
Executivos devem ser imunes a erros. A primeira lição que se aprende, no primeiro estágio, mercado corporativo é que tudo deve ser feito para minimizar o erro e, quando ele é inevitável. Temos que ter garantias de que nossas justificativas serão convincentes.

A consequência deste raciocínio? As empresas gastam muito tempo e dinheiro com planejamentos infinitos que tentam muitas vezes mais justificar possíveis erros do que realmente minimizá-los.

Essas companhias criam uma projeção de realidade futura a partir de um retrato de um passado antigo. Planejamento é fundamental, mas deve ser o mínimo "necessário" para que se tenha boas pistas para serem validadas por quem realmente decide as coisas: o cliente.

6- Feedback sincero vale mais do que mil horas de planejamento
O medo de errar também tem outra consequência que inibe que a marca tenha posturas mais inovadoras e que, assim, possa se reinventar. Trata-se do medo do feedback do cliente.

Um feedback ruim, mesmo em fases de pré-lançamento é entendido, na maioria das vezes, como um sinal de que os investimentos no projeto devem ser cessados, não apenas de que algo precisa ser mudado. Como projetos longos, muitas vezes, se colam nas carreiras dos executivos dentro da empresa, um retorno desfavorável significa um fracasso pessoal.

O sucesso recente das startups mostra que o ideal é exatamente o contrário. Encarar as primeiras ideias como experimentos. É importante levá-las e validá-las com o cliente o quanto antes sabendo que a ideia original vai mudar e que cada alteração significa tornar o projeto mais próximo de algo que as pessoas reais querem comprar.

7- Utilize metodologias e processos ágeis
Em tempo de conexões instantâneas e de explosão de ofertas e novos players em praticamente todos os mercados, é fundamental entender que o consumidor não espera o ciclo de planejamento das empresas.

Como a fidelidade às marcas é cada vez mais baixa, a reação rápida tende a ter cada vez mais força. E metodologias ágeis foram criadas sobre este paradigma: entregar antes e reagir rapidamente às mudanças exigidas pelos consumidores.

8- Mais Bohr e menos Kotler
O físico Neil Bohr, um dos pais da mecânica quântica, diz em uma de suas célebres frases "predição é muito difícil, especialmente se for sobre o futuro". Vivemos em mercados cada vez mais instáveis onde acertar os cenários futuros é cada vez mais incerto e as possibilidades de cenários imagináveis são infinitas. Avaliar, com acurácia razoável, cada um deles acaba praticamente inviável e ainda não descarta a possibilidade de que se estabeleça uma realidade impensada.


Validar hipóteses, ao invés de criar múltiplos cenários, está se tornando a melhor opção de uso do grande volume de inteligência que as empresas conseguem gerar hoje em dia.

FONTE: CorpTV

Guia de Mídia Programática: 9 tópicos fundamentais para anunciantes

Autores: Tim Peterson e Alex Kantrowitz

“A compra programática é o glúten da publicidade”, disse Jimmy Kimmel em seu programa na ABC, na semana passada. Como o glúten, “programmatic” se tornou a palavra do momento, mencionada por muitas pessoas, mas compreendida por poucas. A maioria só sabe que é importante. Por algum motivo.

O termo abrange uma série de tecnologias que começaram a automatizar compra, posicionamento e otimização da publicidade, substituindo atividades humanas como ligações, fax e três almoços acompanhados de martinis. Por meio das tecnologias programáticas, anunciantes podem comprar anúncios como se estivessem comprando algum produto no Amazon ou no eBay.

Pela quantidade de tinta derramada, você pode achar que o mundo inteiro aderiu à mídia programática, mas o display ainda representa apenas uma fatia da publicidade. A Magna Global prevê que, neste ano, os Estados Unidos invistam US$ 9,8 bilhões em mídia programática, o que corresponde a 20% de todo o mercado de publicidade digital. Para movimentar o mercado, a tecnologia programática tem que evoluir para outros meios, como TV e rádio.

Mas a compra programática não é tão complicada quanto parece. Leia nove pontos para entender mais sobre o assunto:

1. O que é mídia programática?
O termo programático significa automação. Muitas pessoas confundem isso com a compra de anúncios por meio de leilões online – conhecidos como real time bidding – mas esse é apenas um dos jeitos de se comprar anúncios de forma programática. A compra programática é realizada por meio de máquinas.

2. Por que só se fala nisso?
Lembram quando era necessário contatar um agente de viagens para reservar um quarto de hotel? Na última década, bilhões de dólares foram investidos como aposta na transição do mercado publicitário. “O que vocês estão vendo é uma mudança fundamental não só na forma como a mídia é comprada, mas como anunciantes podem melhor engajar os consumidores”, afirmou Brian Lesser, CEO global da Xaxis, braço de compra programática da WPP.

3. A mídia programática é cara?
Na verdade, pode economizar dinheiro. Por meio da automação, as transações se tornam mais eficazes, pois eliminar tarefas complexas. Ao mesmo tempo, pode envolver fornecedores que disponibilizam certos tipos de verificações e segmentações.

No mundo ideal, a tecnologia de automação dominaria tarefas de dados avançados e deixaria os humanos fazerem o que sabem melhor. “Tudo isso se trata de abrir caminhos para conversações mais humanas e criativas”, disse Todd Gordon, vice-presidente executivo de investimento na Magna Global.

4. Todos os anúncios serão automatizados?
Provavelmente não. “Não sei se alguém compraria 100% de seus anúncios por meio de programmatic porque integrações profundas de marcas e outras atividades não poderiam ser feitas desta forma”, explicou John Montgomery, CCO do GroupM Interaction. No entanto, “olhando para o futuro, a maioria da compra será realizada com programmatic”.

5. Se a mídia programática é tão legal, por que se investe tão pouco nela?
Muitos anunciantes ainda não entendem programmatic. Veem que milhões de pessoas visualizaram seus anúncios, mas não sabem em quais sites. Dizem a eles que ferramentas programáticas podem estender seus anúncios para qualquer site, mas não sabem se servem para anúncios nativos in-stream.

Neste ano, a Associação Nacional de Anunciantes realizou uma pesquisa com 153 anunciantes e constatou que somente 26% dos participantes sabem o que é mídia programática e a utilizaram. “Na cabeça de muitos anunciantes, a compra programática é igual ao real-time bidding. Mas o RTB é a primeira geração do programmatic”, afirmou Lesser.

6. Você está falando de fraude?
A publicidade digital enfrenta um enorme problema de fraude. A indústria digital diz que está empenhada em resolver o problema, mas quase toda entidade se beneficia de alguma forma do tráfego proveniente de robôs. Os publishers lucram com isso, a performance dos compradores parece ótima, e as empresas de tecnologia são pagas para combater a questão. Na maior parte dos casos, as marcas é que acabam pagando.

7. Os publishers premium também irão adotar o programmatic?
Sim, mas aos poucos. A verdade é que os publishers têm boas razões para serem cautelosos. Se os compradores de mídia aderirem à compra programática simplesmente por ser uma alternativa mais barata para comprar anúncios, os vendedores têm pouco incentivo para entrar no jogo.

Condé Nast, New York Times, Wall Street Journal e Time são alguns dos publishers que deram os primeiros passos em automação.

Recentemente, publishers começaram a automatizar seus acordos com anunciantes. Sob esses acordos “programáticos diretos”, um representante de vendas do publisher pode negociar com um anunciante algo que inclua inventário como anúncios na home page.

8. Serei obrigado a veicular minhas campanhas por meio do Google?
O Google realmente predomina nesse cenário, pois possui uma série de tecnologias que administram o processo de compra de publicidade. Mas existem outras: AOL, Yahoo e Adobe têm suas próprias tecnologias capazes de gerenciar todo o processo. Você pode combinar soluções de centenas de vendedores de ad-tech, de plataformas de demanda a serviços de verificação. É possível fazer uma combinação que atenda às necessidades únicas daquela marca.

9. A TV irá para o programmatic?
À medida que programas e filmes cada vez mais distribuídos pela web, a tecnologia programática chegará lá também. O Hulu experimentou vender anúncios de vídeo por meio de trocas privadas.

Mesmo alguns anúncios de TV tradicionais estão se tornando automatizados. A Comcast disponibilizou a automatização de anúncios . E a DirecTV e Dish Network vendem algum inventário de TV com a tecnologia programática.


“O que impulsiona a mídia programática são: entrega de digital e dados. Se você pensar sobre onde o display e o vídeo digital estão, é mais fácil aplicar o programmatic nesses espaços. Tenho poucas dúvidas que out-of-home, televisão e rádio seguirão o mesmo caminho”, declarou Montgomery.

FONTE: CorpTV

Orçamentos de TI têm maior crescimento desde 2006

Mais organizações estão relatando aumentos no investimento em tecnologia, como reflexo direto dos esforços de suas empresas para recuperar o atraso em sua oferta digital. CIOs ouvidos na 16ª edição da Harvey Nash CIO Survey reportaram o mais alto nível de crescimento dos seus orçamentos desde 2006. Participaram do estudo 3,3 mil líderes de tecnologia em mais de trinta países da Europa e da Ásia, além dos Estados Unidos, responsáveis por mais de 160 bilhões de dólares em gastos com tecnologia. Deles, 46% tiveram orçamentos maiores para trabalhar, contra 42% no ano passado.

A redução de custos foi esmagadoramente a principal prioridade dos CEO entre 2009 e 2013, mas isso transformou-se agora numa eficiência operacional, com 63% dos CEOs preferindo investir em projetos que permitam maior geração de receita – como o marketing digital, sistemas orientados para o cliente e projetos de inovação.

“Estamos vendo um novo espírito de otimismo entre os CIOs”, afirmou o CEO da Harvey Nash, Albert Ellis. “O crescimento nos orçamentos, uma mudança da redução de custos para o investimento, a inovação como objetivo fundamental, a transformação digital e um papel cada vez mais estratégico para muitos CIOs – tudo aponta para um sentido positivo na expectativa sobre as novas oportunidades que temos pela frente”.

Apesar disso, um aspecto permanece inalterado: a quantidade de CIOs se reportando diretamente aos CEOs (32%). E o número de CIOs com assento no comitê executivo da organização caiu – são metade agora, contra 54% no ano passado, revelando que os CIOs estão menos propensos a ter um papel direto na formação da estratégia digital. Sete por cento das organizações já empregam Diretores Digitais, uma posição que, até recentemente, não existia. E esse percentual sobe para 16% quando consideradas apenas as empresas com orçamentos de tecnologia acima de 100 milhões de dólares.

Outra notícia ruim é a de que o incrementando dos investimentos em digital, móvel e online teve impacto direto no aumento da escassez de competências, com quase dois terços das empresas relatando que a falta de talentos deve atrasar a sua estratégia digital. Reter, desenvolver e adquirir as habilidades para conduzir o programa de crescimento são agora grandes prioridades para os líderes de todo o mundo. Na Ásia, por exemplo, o problema é particularmente agudo.


Diante de novos projetos e prioridades mudando, 60% dos líderes de tecnologia estão experimentando uma escassez de competências dentro de suas equipes, contra 45% no ano passado. Isso representa o maior aumento desde que a pesquisa começou a acompanhar esta área, em 2005.

FONTE: CorpTV

Adwords – Seu cliente é seu canal de vendas

Autor: Leonardo Rocha

Muita gente tem reclamado da baixa conversão e pequeno ROI em campanhas de links patrocinados no Google, especialmente em se tratando de anúncios de texto, aqueles que aparecem acima e ao lado direito do resultado de buscas do Google. Inclusive, algumas empresas estão reduzindo seu investimento em anúncios de texto e apostando todas as fichas no PLA (Google Shopping) que, diga-se de passagem, tem sido bastante elogiado em termos de venda!

Está aí um grande erro de estratégia! Se você acredita que o usuário entra no Google e faz a compra na hora, está bastante enganado. Não é assim que funciona na internet!

O caminho é muito mais longo. Nesse contexto, precisamos definir os motivos pelos quais as pessoas compram na internet. Como bem dito por um amigo da Media Factory, 3 desses motivos são indiscutíveis:

- Preço;

- Força da Marca;

- Conveniência (frete, prazo de entrega e etc).

Os grandes players do mercado tem os 3. São amplamente conhecidos, são competitivos em preço, prazo de entrega e frete.

Os médios, em muitas ocasiões, são conhecidos regionalmente e também conseguem brigar, em alguns segmentos, em preço e conveniência.

E os menores? Esses são poucos conhecidos, não conseguem acompanhar preço e muito menos conveniência. Claro, estou generalizando, existem as exceções.

O mais difícil na hora de anunciar online é saber direcionar investimento e medir qual canal de venda é mais importante. É aí que muita gente se atrapalha. É muito fácil julgar um canal dizendo que ele não converte. 

Difícil é entender a importância de cada canal para que os outros canais convertam.

Entender o processo de compra do cliente é mais importante do que qualquer coisa na hora de anunciar. Quem busca no Google e clica em um anúncio pode já ter passado pelo comparador de preços (Preço), pode ter visto sua marca no Facebook (Força da Marca), e no final do processo, entrou direto no seu site e comprou. A venda foi orgânica (sem custos)? Não!

Estar presente, o tempo todo, em todos os lugares, é o mais importante. Já dizia Woody Allen: “80% do sucesso é aparecer”. Parece óbvio, e é. O difícil é aparecer sempre com orçamento reduzido.

O segredo é testar. Não condene um canal de vendas ou uma campanha porque o ROI dela é ruim. Se você cortar o investimento no comparador de preços, por exemplo, vai sofrer com redução nas vendas em todos os canais. Pode apostar! Além disso, não importa onde você anuncia, você tem sempre que estar em linha com os motivos pelos quais os usuários compram online.


Lembre-se, seu cliente é seu canal de vendas! Pelo menos até você ter um modelo de atribuição mostrando por onde o usuário passou, indicando a importância de cada canal para a conversão.

FONTE: CorpTV

quinta-feira, 15 de maio de 2014

Eterno mutante: quem é o consumidor 2.0 brasileiro?

Esse consumidor é parte integrante do processo de criação e manutenção de produtos e serviços e hoje é um ativo real das empresas.

Para entender o que sente, o que gosta, o que quer e como compra o Consumidor 2.0, a E- Consulting, boutique de estratégia e projetos líder na criação, desenvolvimento e implementação de serviços profissionais em Web, TI, Telecom, Contact Center, Multicanais e Novas Mídias, ouviu mais de 2.356 consumidores para apontar as principais características deste consumidor que passou a revolucionar a maneira de comprar.

“O crescimento do Consumidor 2.0 é impulsionado pelo acesso facilitado à informação. Se antes ele tinha apenas o órgão de defesa do consumidor e as cartas enviadas para os jornais, hoje ele tem a oportunidade de compartilhar a sua alegria ou o seu descontentamento através de opiniões instantâneas nas redes sociais, podendo fazer de sua reclamação um viral que atinge outros milhões de consumidores.”, explica Daniel Domeneghetti, sócio-fundador da E-Consulting Corp.

Para garantir as melhores práticas nesta relação, a E- Consulting elencou as características mais relevantes do Consumidor 2.0:
1. Está em mutação, mas prefere que digam que é evolução;

2. Tem múltiplos chapéus: consumidor, cidadão, acionista, colaborador, etc (é uma miríade de tons de cinza);

3. Está sempre aberto à experimentação, muitas vezes é taxado de infiel por entrar na onda do efeito viral, mas pode voltar a ser fiel para empresa a qualquer momento (viva com isso!);

4. Engaja em redes e comunidades para trocar informações sobre marcas e produtos e também sobre pessoas, tendências, fofocas. Quais são seus podres?

5. É simpático ao conceito de gratuidade;

6. Aproveita todas as possibilidades da realidade multimídia e multidevice que estão dentro das suas próprias possibilidades;

7. Não é fixo à sua classe social e muito menos aos seus avatares. Não sente vergonha, mas conhece um pouco de engenharia social;

8. “Conheço” meus “direitos” e “defendo” meu “ponto de vista”;

9. Gera mídia e conteúdo, ampliando seu poder de atuação e influência. Às vezes, é chamado de celebridade por desejar 5 minutos de fama;

10. Não liga para propaganda, mas valoriza a boa comunicação. Não tem problema em elogiar, recomendar, criticar, processar, tudo depende;

11. Quer saber quais são seus valores e políticas, o que sua marca significa;

12. Diz que é sustentável e que exige sustentabilidade da marca, mas na verdade precisa de um empurrãozinho;

13. Mesmo sem necessariamente saber, se posiciona como principal acionista da empresa. Advoga pró-socialismo do cliente;

14. Exige qualidade e uma relação valor-preço que lhe pareça justa. Para início de conversa;

15. Interage e exige feedback qualificado e rápido (Atenda-me!!!) em todos os canais que quiser e nos que a empresa deixar.

Com o volume cada vez mais expressivo de compras online, a análise deste novo consumidor se tornou uma questão sine qua non para as empresas manterem um bom relacionamento com seus clientes.


“A opinião tomou lugar da propaganda e o contato ganhou novos canais, ou seja, a interação entre quem vende e quem compra mudou de tom e o sucesso ou fracasso de uma marca, ganha velocidade jamais vistas nas relações de consumo.”, finaliza Domeneghetti.

FONTE: CorpTV

2014: Integrar a área de TI com as de negócios ainda desafia os CIOs

CIOs e outros executivos de TI têm feito progressos significativos em seus esforços, de longa data, para alinhar seus departamentos com as unidades de negócios de suas organizações. Apesar do esforço contínuo, os obstáculos permanecem, de acordo com pesquisa da Red Hat.

Encomendado pela Red Hat ao CIO Strategic Marketing Services/IDG Research Services, o estudo "CIOs nos cruzamentos Tecnológicos e Culturais" entrevistou 100 executivos de TI que atuam em organizações com 1 mil ou mais empregados. Os resultados revelam progressos dos CIOs e outros executivos de TI em assumir papéis mais estratégicos, além dos desafios que continuam a enfrentar. Levanta também questões fundamentais sobre como esses executivos podem melhorar a inovação empresarial.

Atualmente, muitos CIOs e outros executivos de TI gastam muito do seu tempo "mantendo as luzes acesas" - 48% e 47% dos entrevistados apontaram a melhoria das operações de TI/desempenho do sistema e a implementação de novos sistemas e arquiteturas como uma das suas cinco principais áreas de foco, respectivamente.

Apesar dessas demandas do dia-a-dia, muitos executivos de TI também conseguem envolver-se em uma variedade de atividades empresariais, incluindo iniciativas da TI para atender os objetivos de negócio (45%).

Nos próximos anos, os executivos de TI querem passar mais tempo contribuindo para a estratégia de negócios, de acordo com os resultados da pesquisa. Quando perguntados onde eles gostariam de passar mais tempo nos próximos três a cinco anos, os entrevistados disseram que gostariam de identificar oportunidades de diferenciação competitiva (48%), cultivar a parceria de negócios de TI (42%), impulsionar a inovação empresarial (41%), alinhar as iniciativas de TI com os objetivos de negócio (35%), e desenvolver e aperfeiçoar a estratégia de negócios (32%).

Oportunidades de negócios
Dada a oportunidade, os executivos de TI entrevistados pelo IDG Research Services acreditam que poderiam ser contribuintes valiosos para as estratégias de negócios. Entre os entrevistados, 78% avaliaram seu conhecimento do negócio ou como "excelente" ou "bom" e 66% disseram que sua receptividade a novas ideias provenientes de unidades de negócios foi "excelente" ou "bom".

Mesmo dada a oportunidade de inovar, muitos se sentem frustrados por fatores fora de seu controle. Quando perguntados se eles tinham o orçamento para apoiar e permitir novas ideias de negócios, 57% disseram que seu orçamento disponível era apenas "justo" ou "inferior", e 62% disseram que seu orçamento está no mesmo nível de seus colaboradores.

Outros desafios permanecem para que TI seja vista como forte contribuinte para a estratégia de negócios. Quando os executivos de TI entrevistados descrevem como os patrocinadores de suas empresas percebem a organização de TI, apenas 10% disseram que eram percebidos como "pares" de negócios envolvidas no desenvolvimento, não apenas permitindo a, estratégia de negócios. Menos ainda dos patrocinadores do negócio (4%) enxergam o CIO como um "responsável pela mudança do jogo” e a TI como principal motor do futuro competitivo da empresa.

Quase 30% dos acionistas da empresa ainda consideram o departamento de TI apenas como um "centro de custo".

A pesquisa mostrou ainda que novos projetos de TI são mais frequentemente iniciados por uma abordagem de business champions (77%). De acordo com a pesquisa, TI e representantes de outras áreas gastam apenas 16% do seu tempo funcional colaborando para identificar em conjunto novos projetos e oportunidades de inovação.

“ TI é uma fonte chave de inovação. É responsabilidade dos executivos de TI comunicar o valor estratégico da TI para a evolução dos negócios", afirmae Lee Congdon, CIO, da Red Hat.


"Os resultados da pesquisa mostram claramente a necessidade dos executivos de TI comprrenderem melhor sua organização e aumentarem a colaboração entre a área de TI e os líderes empresariais. É através desta colaboração que as percepções irão mudar e os resultados da empresa serão impulsionados".

FONTE: CorpTV

segunda-feira, 12 de maio de 2014

Novo padrão 802.11ac e as redes corporativas

Autor: Fernando Lobo

Na rede wireless, a última evolução é o padrão 802.11ac, importante mudança na utilização massiva da rede Wi-Fi no mundo corporativo oriunda da invasão de tablets e smartphones dentro das companhias. As redes sem fio vêm aumentando a velocidade de maneira exponencial e estão se tornando cada vez mais o principal mecanismo de acesso às redes corporativas.

O 802.11ac, definido pelo IEEE (Instituto de Engenharia Elétrica e Eletrônica), utiliza múltiplas conexões de alta velocidade para transferir conteúdo em vez de propagar as ondas de modo uniforme para todas as direções. Além disso, com a evolução no padrão Wi-Fi, é possível conversar simultaneamente com diversos aparelhos conectados ao roteador sem qualquer interrupção.

Neste momento, entender o que esta tecnologia inova e onde se aplica é fundamental para que os profissionais de TI tomem a decisão correta. Um momento “Geek” é necessário para entendermos o que mudou:

- Modulação: Houve uma clara evolução de 64 QAM para 256 QAM, ou seja, passamos de seis para oito bits, aumentando a quantidade de símbolos transmitidos resultando em maior quantidade de dados. Por outro lado, o aumento da demanda torna o sinal mais sensível a ruído e, por isso, é necessário um sinal mais potente (54-59 dBm). Entretanto, a otimização do sinal resulta em menor alcance.

- Canais mais largos: O novo padrão 802.11ac permite a operação em canais de 80 e 160 MHz, o que resulta em termos práticos, de 100% a 200% mais velocidade na transmissão dos dados.

- Operação: O novo padrão 802.11ac deixa de operar a 2.4 GHz e passa a atuar em faixa de 5GHz, com menos interferência.

- Maior número de “spatial streams”: O padrão 802.11ac passa de quatro spatial streams (fluxo espacial) do padrão N para até oito “spatial streams”. Quanto mais spatial streams utilizados simultaneamente, maior a velocidade de transmissão. O problema é que os pontos de acesso utilizam diversos streams mas os dispositivos dos usuários como tablets e smartphones dificilmente terão oito antenas para se beneficiar dos oito streams. A solução seria downlinks simultâneos a partir dos pontos de acesso.

- Multi-User Mimo: Essa tecnologia contempla o maior número de spatial streams e possibilita que vários usuários transmitam dados para mais do que um receptor simultaneamente. Se pensarmos em evolução com mu-mimo, os pontos de acesso passarão finalmente a operar de forma análoga a switches e não a hubs como operam hoje.

- Standard Beamforming: Aqui temos outra importante evolução, uma vez que finalmente o beamforming está padronizado para WiFi. Trata-se de uma maneira de direcionar o sinal para o cliente aumentando a potência em sua direção. Com a padronização, apenas uma forma de beamforming (“explicit feedback”) será utilizada, beneficiando a todos já que atualmente cada fabricante adota uma maneira distinta.

- Canal: A largura de canal que no antigo padrão 802.11n era fixa, agora com o 802.11ac passa a ser dinâmica podendo variar automaticamente de 160MHz para 20 MHz, reduzindo o risco de interferência entre canais.

- Maior Velocidade: O novo padrão chegará próximo a sete Gbits, um incremento nas taxas de dados para além de 1 gigabit por segundo.

Vale ressaltar que hoje, os fabricantes entregam em seus produtos 802.11ac apenas parte destas funcionalidades. Estamos vivendo a era da primeira fase do 802.11ac, que neste momento disponibiliza:
- Três spatial streams.
- Clientes com suporte a 1, 2 e 3 spatial streams.
- Modulação em 256-QAM.
- Canais de 80 MHz.
- Velocidades de até 1.3 Gbps.

A segunda fase, que começará a surgir no segundo semestre de 2014, trará os reais benefícios de 802.11ac:
- 4 spatial streams
- Canais de 160 MHz
- Tx Beamforming
- Mu-mimo

Benefícios decorrentes da nova tecnologia
Na primeira fase teremos um maior rendimento. É como se tivéssemos que entregar pacotes de uma cidade para outra e para isto precisássemos de dois caminhões para transportá-los. Com o 802.11ac os caminhões andaram mais rápido liberando a estrada para o segundo caminhão.

Já na segunda fase com Mu-mimo, poderemos ter dois caminhões trafegando simultaneamente utilizando assim ao máximo as estradas (streams) disponíveis.

Os dispositivos passam a operar com melhor taxa por distância, isto quer dizer que a uma mesma distância, dispositivos com tecnologia 802.11ac terão maiores velocidades que dispositivos 802.11n.

O meio estará livre mais rápido devido às altas taxas de transmissão, possibilitando um maior número de clientes conectados simultaneamente.

Com maior velocidade de transmissão, os dispositivos como smartphones e tablets estarão transmitindo por menos tempo, consequentemente haverá menor consumo de bateria.

Para a adoção de 802.11ac
Os uplinks dos pontos de acesso necessariamente devem ser a Gbits, porém, para a segunda fase em que as velocidades passaram de 1.3 Gbs, mais de uma interface por ponto de acesso deve ser considerada.

A utilização de POE+ será quase que obrigatória. Os switches POE devem prover 802.1at para se obter o máximo dos pontos de acesso.

Características como suporte a firewall e QoS em camada 7, controle de aplicação, portais de visita, MDM, BYOD não podem ser perdidas pelo simples fato de se adotar uma nova tecnologia.


Sem dúvida existe muito mais a ser explorado sobre esta tecnologia, mas esta evolução não pode de forma alguma gerar complexidade nas rede corporativas existentes. A adoção de uma tecnologia utilizando arquitetura de controle distribuído e gestão simplificada é quase que obrigatória para o sucesso do novo padrão 802.11ac. Arquiteturas criadas para redes que operavam a 54 Mbits, com controladoras centrais provavelmente não poderão co-existir com o 802.11ac ou necessitarão de um número infinito de adaptações que tornarão as redes corporativas extremamente complexas e virtualmente impossíveis de se gerenciar. A arquitetura com processamento e controle distribuído entre os pontos de acesso e gestão por software simples e especializado serão mais adequadas para as corporações.

FONTE: CorpTV

sexta-feira, 9 de maio de 2014

Cinco parâmetros para medir corretamente a qualidade do software

Autor: Jitendra Subramanyam

Avaliar a qualidade de um software é um mistério. Muitos profissionais de TI ficam frustrados sobre como definir e medir a qualidade das aplicações.

Não surpreendentemente, essas dificuldades resultam de um foco incorreto sobre o processo pelo qual o software é construído. Achamos que podemos definir essas atividades e medi-los com precisão para que as pessoas possam ver e focar nas atividades necessárias para criar, melhorar e gerenciar o software.

Mas de nada adianta ter um processo impecável se o produto não estiver em linha. Infelizmente, esse é o tipo de falha que corremos o risco quando não somos capazes de medir a qualidade do software.

Essa falta de visibilidade sobre a qualidade está na raiz de muitos problemas de gestão de software. Os executivos de negócios não conseguem entender por qual motivo um software custa tanto, demora tanto tempo para ser desenvolvido e ainda tem custos associados para mudá-lo. CFOs e CEOs, por sua vez, não conseguem entender por que o investimento em TI é tão alto.

Você deve estar pensando: "Será que não cuidamos da qualidade de testes de software?" Mas o teste é na melhor das hipóteses uma solução parcial. O teste não é realmente concebido para medir a qualidade estrutural do software - a qualidade do design de um aplicativo e da fidelidade de sua implementação para o projeto.

Um software bem concebido, bem arquitetado e bem executado possui alta qualidade. É fácil trabalhar com ele, mantê-lo e melhorá-lo para suprir as demandas dos negócios. Nós sabemos que medir a qualidade do software é bom, mas podemos, de fato, medi-lo? Sim, graças a produtos que realizam essa tarefa.

Em uma aplicação, a qualidade de qualquer componente depende de outros componentes que ele está integrado. A qualidade de um aplicativo como um todo é, portanto, mais do que simplesmente a soma da qualidade de seus componentes. O erro mais frequente em engenharia de software é esquecer esse fato.

Por isso, qualquer sistema que possa ajudá-lo nessa tarefa deverá medir cinco pontos:

1. Alcance: deve ser capaz de lidar com várias tecnologias. A maioria dos aplicativos modernos contém vários idiomas e sistemas que são ligados entre si de forma complexa.

2. Profundidade: deve ser capaz de gerar mapas completos e detalhados da arquitetura do aplicativo do Graphical User Interface (GUI), ferramenta de captura, processamento e análise de imagem, para o banco de dados. Sem essa detalhada arquitetura, seria impossível obter contextualização da aplicação.

3. Tornar o conhecimento explícito de engenharia de software:deve ser capaz de verificar a aplicação inteira contra centenas de padrões de implementação que codificam as melhores práticas de engenharia.

4. Métricas acionáveis: as métricas de qualidade não devem apenas informar, mas também orientar sobre como realizar a melhoria da qualidade do software, mostrando o que fazer primeiro, como fazê-lo, próximos passos etc.

5. Automatização: finalmente, deve ser capaz de realizar todos os pontos descritos acima de forma automatizada. Nenhum profissional ou equipe pode fazer essa tarefa, muito menos fazê-la em um curto espaço de tempo.


É importante medir a qualidade do software, mas é igualmente importante executar a atividade de forma correta. Essa ação é muito útil no desenvolvimento de software, mas, muitas vezes, é melhor não ter medição alguma do que contar com uma errada.

FONTE: CorpTV

Como vender através das mídias sociais?

Autor: Felipe Martins

O quesito marketing no e-commerce sofreu um upgrade com a presença, cada vez mais marcante, das mídias sociais. Às campanhas de SEO, SEM e e-mails marketing foram unidas também as campanhas de social media.

E, assim como as outras, há algumas dicas importantes para conquistar um público interessado no conteúdo compartilhado e que seja motivado a consumir. Confira alguns pontos:

1. Apresente o que o consumidor deseja. O potencial consumidor que visita, segue e curte seus perfis sociais tem o desejo de receber algo: promoções, cupons de desconto, informações de especialistas, detalhes sobre os produtos, etc. É, por isso, que deve-se conhecer o que seu público deseja para desenvolver campanhas de social media relevantes.

2. Torne a situação urgente. Como nas mídias sociais o tempo de destaque na timeline do potencial consumidor é curto, é interessante aplicar às campanhas um sentido de urgência. Ou seja, frases que motivem o consumidor a compartilhar, curtir, retuitar e comprar, sem perder tempo. Informações como “tempo limitado”, “nos próximos X minutos”, despertam a atenção.

3. Faça promoções exclusivas para fãs. Esta é uma forma de motivar seus fãs e seguidores a continuarem acompanhando suas mídias; bem como um incentivo para que outros internautas e potenciais clientes se interessem em suas redes. Estabeleça promoções e descontos apenas para quem acompanha suas mídias e divulgue isso.

4. Motive o compartilhamento de informações. Quando consumidores compartilham informações de uma empresa, a credibilidade da mesma aumenta. E, a partir disso, o número de negociações também cresce. Motive, portanto, seus seguidores e fãs a compartilharem suas informações através de bons descontos e benefícios.

5. Atualize suas mídias constantemente. Mantendo seus canais atualizados, sempre que um potencial consumidor acessá-los, terá uma ideia bastante clara de seu e-commerce e de suas propostas de negócio, o que certamente ampliará suas chances de negociações.


Para vender mais através das mídias sociais, traga seu consumidor para mais perto de sua marca e de seu negócio; desenvolva um relacionamento eficaz e lhe dê motivos para fidelizar-se.

FONTE: CorpTV

quarta-feira, 7 de maio de 2014

Oito forças críticas para a estratégia de Data Center

Segundo o Gartner, a tecnologia, a importância, o papel e a funcionalidade dos Data Centers mudarão nos próximos cinco anos – o que, certamente, deixará muitas empresas em dúvida sobre como planejar as arquiteturas de seus futuros Data Centers. Para os analistas do Gartner, as preocupações técnicas, fiscais e com a entrega de serviços serão críticas e as empresas devem se planejar em torno de oito forças para construir suas melhores estratégias de Data Center.

"Nos próximos cinco a dez anos, a maioria das organizações precisará alterar a abordagem para estratégias anteriores, usadas nos últimos cinco a sete anos, na medida em que grande parte do mundo está saindo da recessão e o Nexus das Forças (Mídias Sociais, Mobilidade, Nuvem e Informação) afetam o uso da tecnologia", afirma Henrique Cecci.

Historicamente, Data Centers têm sido vistos, apenas, como centros de entrega de serviços, nos quais custos e riscos devem ser equilibrados. "A agilidade, diz Cecci, é uma terceira variável crítica que se torna cada vez mais importante no futuro".

Em termos práticos, a agilidade equivale à velocidade com a qual a área de TI responde às necessidades dos negócios, como, por exemplo, o maior uso das informações móveis e sociais para comercializar produtos ou sistemas de pagamento. A habilidade de resposta rápida a essas mudanças será o reflexo de sua agilidade.

O Gartner identificou oito aspectos a serem considerados no desenvolvimento da estratégia que equilibra custo, risco e agilidade:

1. Comece a implantar tecnologias de processamento, memória e energia eficiente
Os próximos anos trarão avanços significativos para a arquitetura de processos, e a economia dos componentes de processamento e memória mudará. A computação in-memory – na qual a localização primária para dados de aplicações é a principal memória do ambiente computacional – será mais amplamente usada, auxiliada pela memória DRAM, cada vez mais barata, e memória flash NAND. Ao mesmo tempo, o uso de processadores de baixa energia em servidores vai crescer, com potencial para reduzir, significativamente, os custos de consumo de energia.

2. Vá em direção à topologia de arquitetura equilibrada e de modelo de entrega
A arquitetura de sistemas implantada em Data Centers mudará nos próximos cinco anos e a topologia do modelo de entrega também está em transformação. O uso da Nuvem e uma variedade de fornecedores de hospedagem continuarão a crescer nos próximos anos, na medida em que as organizações mudam seus gastos de TI de despesas de capital para despesas operacionais. Os limites são cada vez mais tênues entre os tipos tradicionais de outsourcing de infraestrutura – hospedagem gerenciada, outsourcing de Data Center e serviços relacionados, como gerenciamento remoto de infraestrutura.

Para o Gartner, esses mercados vão convergir nos próximos dez anos, à medida que os fornecedores entregam, cada vez mais, seus serviços em infraestrutura de sistemas na Nuvem.

3. Invista em processos operacionais e ferramentas aprimoradas
Data Centers empresariais são centralizados e centros críticos de entrega de serviços de TI que contam com processos operacionais bem orquestrados. Isto envolve entender, documentar e revisar, constantemente, os níveis de serviço dos usuários e mapeá-los de volta para as capacidades essenciais de entrega de TI. As principais áreas de preocupação são mudanças, problemas, configuração e gestão de ativos.

Para o futuro, áreas como segurança empresarial, gestão de dados e mapeamento de processos de negócios para o núcleo dos processos de TI se tornarão ainda mais importantes – e, na medida em que a agilidade se torna cada vez mais importante para medir o valor do Data Center, melhorias nos processos operacionais são vitais.

4. Integre a recuperação de desastres e a continuidade de negócios em sua estratégia de Data Center
Um forte e bem documentado planejamento de recuperação de desastres e de continuidade de negócios é essencial para todos os grandes Data Centers, levando em consideração a turbulência socioeconômica em muitas regiões do mundo e as mudanças para a governança corporativa afetando muitas áreas de negócios. Mas, esse ponto deve evoluir de um plano de projeto separado e especializado para uma parte integral da estratégia geral.

5. Gerencie o crescimento da capacidade por meio da análise de dados
Nos próximos cinco anos, a maioria das empresas terá crescimento significativo na capacidade de hardware (armazenamento, servidores e redes), estendendo para o tráfego de rede, espaço de piso do Data Center, energia e refrigeração. Na medida em que as empresas começam a desenvolver a próxima geração de aplicações, baseadas no Nexus das Forças, haverá um aumento na demanda por sistemas de armazenamento e backup e novos papéis, como os de engenheiros de dados, por exemplo, que vão se multiplicar. Essa capacidade é uma força chave que deve ser considerada em todas as estratégias de Data Center.

6. Planeje-se para mudanças de sistema operacional e aplicações
Durante os próximos cinco anos, haverá mudanças na diversidade de sistemas operacionais na maioria dos Data Centers. Ocorrerá uma migração constante de UNIX para a plataforma Linux, o ambiente Windows continuará a crescer e o IBM Z O/S aumentará em algumas regiões e diminuirá em outras.

Essas mudanças serão significativas, causando a ruptura nas arquiteturas de hardware, designs de aplicações e níveis de serviço. O Gartner recomenda que planos de migração do UNIX comecem a partir de 2014 para todas as aplicações, exceto para aquelas com requisitos extremos de disponibilidade, latência e compliance. Outras aplicações, com informações/acessos sensíveis de clientes, podem ocorrer mais tardiamente, por volta de 2017.

7. Faça da consolidação e racionalização um programa de mudança contínua
A consolidação de Data Centers tem sido um tópico de discussões por muitos anos, mas um grande número de organizações de TI lutam para colher os reais benefícios, pois, trata-se de projetos complexos que abrangem muitos anos e, frequentemente, afetam várias aplicações. Ainda, em grandes projetos, questões organizacionais e políticas complicam.

As organizações devem posicionar essas atividades como uma mudança contínua, ao invés de um projeto individual. A otimização contínua de hardware e sites físicos significará que os grupos de infraestrutura e operações terão maior tendência a funcionar em um nível de custo otimizado. Eles serão capazes, também, de planejar melhor as mudanças, como, por exemplo, desligar um site físico.

8. Modernize as instalações do Data Center
As mudanças no ambiente de infraestrutura de hardware focaram muita atenção nas capacidades das instalações do Data Center. O problema está no volume de energia e refrigeração que as novas infraestruturas de alta densidade requerem. A maioria dos Data Centers não é projetada para tais aumentos e o crescimento proporcional nos custos não é sustentável quando são usadas as instalações antigas.

Os gerentes de Data Centers devem modernizar as capacidades de suas instalações, a fim de controlar as tecnologias de hardware emergentes e a intensificação do consumo energético como resultado do crescimento projetado no volume de servidores. Outra consideração importante é implementar ferramentas de software que reportam, gerenciam e controlam elementos de energia e refrigeração. Essas ferramentas devem ser consideradas como uma parte vital da gestão do Data Center.


"As oito forças críticas são os maiores fatores a se considerar ao desenvolver uma estratégia de Data Center", afirma Henrique Cecci. "Individualmente e em conjunto, elas determinarão o nível apropriado de risco, custos e agilidade que o Data Center irá fornecer ao negócio. Esse modelo deve ser o ponto de partida para discussões de estratégias de médio e longo prazo".

FONTE: CorpTV