Estamos vivenciando um processo de transformação no ambiente de negócios e na sociedade como um todo impulsionado pela convergência de quatro ondas tecnológicas. Esta disrupção é um fenômeno que ocorre a cada 10-15 anos e provoca mudanças significativas no uso da computação. A convergência da computação em nuvem, mobilidade, plataformas sociais e Big Data está deslocando o eixo do poder das empresas para as pessoas, sejam estas clientes ou funcionários. Na prática, a sociedade e as empresas estão cada vez mais digitais e visualizaremos em breve um cenário onde não existirá mais budget especifico para TI, uma vez que a tecnologia estará em todas as atividades da empresa. O budget da computação estará espalhado por toda a empresa. Cada uma destas quatro ondas por si causa mudanças, mas agrupadas, elas criam o que o Forrester Research chama de “Perfect Storm”. Quem viu o filme “Mar em Fúria” lembra da onda gigantesca causada pelo que os meteorologistas apelidam de “a tempestade perfeita” e o que ela pode provocar. A combinação de mobilidade, Big Data, plataformas sociais e cloud computing incentivam mudanças radicais nas práticas e processos de negócio, inclusive submergindo negócios estabelecidos há décadas. Cria novos hábitos, novas experiências e novas expectativas. Um exemplo? Que tal pensarmos no mobile payments? Entretanto, este cenário de mudanças embute desafios imensos para a área e os profissionais de TI. O próprio processo de consumerização de TI, com os usuários trazendo as novidades tecnológicas de seu dia a dia para dentro das empresas, está forçando a criação de novos modelos de gestão de tecnologia, como o BYOD (Bring Your Own Device) ou BYOC (Bring Your Own Cloud), impensáveis há uns meros três, a cinco anos atrás. E este processo não deve parar por aí. Em breve, não apenas trarão estas tecnologias em seus bolsos (como smartphones) mas as estarão vestindo, como o Google Glass! Na sociedade digital, TI é o diferenciador competitivo, e portanto o seu papel não pode ficar limitado a automatizar operações, subordinado ao CFO da empresa. O CIO deve ser reengenheirado. Alguns começam a batizar seu cargo como CDO (Chief Data Offcer) e os profissionais de IT (Information Technology) passam não ser mais de IT mas sim de BT (Business Technology) e chamados de business technologists. Surgem também os data scientists e diversas outras funções que simplesmente não existiam há poucos anos. Mudanças nem sempre são apreciadas, principalmente quando ocorrem com muita rapidez. Muitos profissionais de TI passaram pela disrupção anterior, quando saímos do modelo centralizado para o cliente-servidor. O impacto foi muito grande. Novas empresas de TI surgiram enquanto outras simplesmente desapareceram. Mudamos os skills, as tecnologias e as práticas de TI e a tecnologia se espalhou pela empresa. A chegada da Internet acelerou o processo de transformação e novos negócios baseados em comércio eletrônico surgiram, desbancando ou simplesmente eliminando negócios plenamente estabelecidos. Estamos diante de outra disrupção. A área de TI não pode ficar em “wait”, aguardando que os executivos de negócio decidam o que será feito. TI, ou melhor, BT, deverá ser o impulsionador destas mudanças. O fato destas mudanças estarem acontecendo de forma tão rápida e muitas áreas de TI não acompanharem esta velocidade faz com que surjam distorções, como executivos e os usuários lendo e usando inovações tecnológicas nos jornais e sites de negócios, e associarem TI ao legado e não à estas inovações. Se os CIO não agirem rápido, TI será associado ao passado e não ao futuro. Portanto, os CIOs devem deixar de ser “babás” de ERP e começarem as olhar as novas tecnologias com a visão de plataformas de transformação e não como ameaças ao status quo. Em vez de olhar cloud apenas pela ótica do “será seguro ou não”, porque não olhar cloud como meio de mudar o papel de TI? Se a empresa não tiver mais limite de capacidade computacional, não poderá fazer coisas inovadoras que não faz hoje? Assim, o CIO deverá liderar o processo de mudança de mindset, implementando continuamente inovações tecnológicas ajudando a criar novos processos, novos produtos e mesmo novos negócios. O que isso significa? Que o CIO deverá estar no nível decisório das empresas, conduzindo conversações estratégicas continuamente. O CIO não pode ficar apenas na dimensão da tecnologia, mas envolvido com o negócio em sua plenitude. Aliás, conversas sobre aplicações estratégicas de novas tecnologias não podem mais serem feitas a cada 3 ou 4 anos, mas a cada 3 ou 4 semanas! Claro que estratégias não serão mudadas a cada 3 ou 4 semanas, mas correções de rumo poderão ser tomadas a partir destas discussões entre os altos executivos de como uma nova tecnologia poderá afetar o negócio. Os profissionais de TI devem ser cada vez mais business technologists e menos técnicos operacionais. Enfim, na minha opinião, nós profissionais de TI vivemos e devemos aproveitar uma oportunidade que só acontece de dez em dez anos: vivenciar uma disrupção tecnológica que está afetando todos os setores de negócios.
|
Estamos chegando ao fim de mais um ano e em 2012 conseguimos muitos avanços na área de tecnologia móvel. O mobile payment
está cada vez mais próximo de virar realidade, assim como a IPTV. O
Windows 8 está aí e veio para mostrar a força da mobilidade. Muitas
coisas aconteceram e tantas outras ainda estão por vir. Vamos fazer uma
retrospectiva?
Comecei o ano falando sobre o que faltava para o mobile payment
funcionar efetivamente no Brasil. O projeto de lei ainda não foi
aprovado pelo Congresso, mas os bancos e as operadoras estão se
adiantando e lançando seus próprios modelos de negócios. Acredito que
ainda no primeiro semestre de 2013 esse serviço estará disponível para a
população e com certeza é um grande avanço. Além de ser mais uma opção
para os usuários, o mobile payment mostra como o Brasil está cada vez mais avançando na área de tecnologia e se aproximando dos países de primeiro mundo.
Outra novidade que está chegando ao Brasil e também já está em uso em
grandes países é a IPTV. As redes de fibra óptica estão sendo
implantadas, e as empresas estão criando pacotes desse serviço para os
consumidores. Os brasileiros gostam de assistir à TV e estão cada vez
mais investindo em tecnologia, como a compra de smartphones, tablets, TV
conectadas e outros aparelhos que ofereçam maior conforto e acesso às
novidades. Por isso, com certeza não irá demorar para que a IPTV se
torne popular.
Ainda para o consumidor geral, tivemos o lançamento do Windows 8. A
Microsoft anunciou que, em um mês, 40 milhões de licenças foram
vendidas. Os números são ótimos, mas, independentemente disso, acredito
que o que realmente merece destaque é a importância que os dispositivos
móveis ganharam nos últimos anos, fazendo com que um dos sistemas
operacionais mais populares mudasse totalmente o seu leiaute.
Já quando falamos de tecnologia para empresas, temos que destacar o Bring Your Own Device
(BYOD), que foi bastante discutido em 2012. Principalmente os cuidados
que as empresas devem ter com essa prática. Acredito que cada vez mais
pessoas continuarão levando seus aparelhos para o trabalho. Há vantagens
e desvantagens para ambos. As empresas se beneficiam, pois não arcam
com o custo do aparelho, mas precisam tomar cuidados com a segurança da
informação. Já o funcionário pode usar a rede da empresa para acessar
informações pessoais, mas também passa a trabalhar fora do horário. Cabe
a cada um avaliar os prós e os contras.
O uso de dispositivos móveis é cada vez maior e mais popular. Os
brasileiros gostam de estar antenados com as novas tecnologias e isso é
ótimo, pois faz com que as empresas invistam no Brasil, já que sabem que
aqui encontraram público para as inovações. Com certeza, essa tendência
continuará em 2013 e o mobile payment e a IPTV serão uma realidade e não mais uma promessa. Vamos acompanhar as novidades!
***Artigo de João Moretti
|
Eu não sou um grande apreciador de doces, mas uma das minhas sobremesas preferidas é o popular creme de mamão papaia com licor de cassis.
Sempre achei que essa era a combinação perfeita para uma sobremesa,
especialmente no calor. Mas o mamão papaia é um grande injustiçado. Se
você perguntar para qualquer pessoa o nome de uma sobremesa feita com
mamão papaia, com certeza a grande maioria vai dizer “creme de papaia
com licor de cassis”. Falta de criatividade? Pois é. O mesmo acontece
com a API de Geolocalização do HTML5.
Sim, a API de Geolocalização (documentação mantida pelo W3C Geolocation Working Group)
acaba sendo sub-aproveitada em diversos projetos. Faça uma pesquisa
rápida no escritório ou uma busca pelo Google, que você vai se deparar
com uma grande quantidade de exemplos utilizando geolocalização baseados
simplesmente na interface do Google Maps para obter sua localização atual. Uma ótima utilização da API, mas não a única.
Da mesma forma que existem diversas de receitas de sobremesa utilizando mamão papaia,
existem diversas aplicações interessantes para o uso da API de
Geolocalização. Basta exercitar a criatividade. Não estou dizendo que
uma aplicação que identifica minha localização seja inútil. Pelo
contrário! Consigo identificar serviços e estabelecimentos próximos de
forma muito precisa, mas podemos ir um pouco além…
Veja este exemplo de Trip Meter.
Utilizando a API de Geolocalização, você consegue identificar sua
localização inicial e comparar com a localização final e ainda
incrementar com o tempo percorrido, pontos turísticos interessantes,
etc. Nesse mesmo exemplo, você pode fazer um cruzamento de dados e calcular a previsão do tempo da cidade que você está passando nesse exato momento. Muito útil para acompanhar todo o seu itinerário de viagem.
Mas e no meu dia-a-dia, como fazer uso da API de Geolocalização de
uma forma mais útil? Bem, você pode criar um website de venda de
produtos que pode utilizar a localização do usuário para determinar o
custo do frete, ou um conversor de moedas extrangeiras por exemplo. Pode
ainda criar um sistema para verificar disponibilidade de vagas em
hotéis ou aluguel de casas conforme a localização do usuário. Pode
parecer estranho uma pessoa chegar a uma cidade sem ter hotel reservado,
mas não é. Uma pesquisa feita em 2010 pelo site MalaPronta.com mostra que 67% dos usuários do site fazem a reserva do hotel com menos de 30 dias de antecedência. Já uma pesquisa feita pelo website Trip Advisor aponta que grande parte de seus usuários utilizam dispositivos móveis para planejar suas viagens. Ainda sobre viagens, outra pesquisa mostra que hospedes preferem Wifi do que qualquer outro serviço do hotel. A internet móvel possibilita aplicações inimagináveis na web.
E como anda o suporte a API de geolocalização nos dispositivos? Bem, seu status atual de Canditata a Recomendação no W3C pode dar uma ideia. Fazendo uma rápida pesquisa pelo CanIUse.com,
podemos ver que mais de 80% dos navegadores pesquisados dão suporte a
API (inclusive os browsers de dispositivos móveis). Mas e sobre a minha
privacidade? A especificação é bem clara: User agents must not send location information to Web sites without the express permission of the user. A escolha de permitir ou não o compartilhamento da sua localização está nas mãos do usuário.
Fazer uso dos recursos do HTML5 é muito mais simples do que se imagina. Com um pouco de JavaScript você pode começar a brincar e fazer experimentos com essa API, identificando latitude, longitude e integrando com o Google Maps para começar. Esse é apenas o primeiro passo.
Você vai ver que utilizar a API de Geolocalização do HTML5 é mamão
com açúcar (desculpe. Não podia deixar esse trocadilho fora do artigo!).
*** Artigo de Reinaldo Ferraz
|
No Windows 8, você pode abrir diversos aplicativos e alternar
entre eles sem ter de se preocupar com o uso de processador ou memória
do sistema, pois o sistema suspende automaticamente (e às vezes termina)
aplicativos que estão rodando em segundo plano para você.
Um aplicativo bem projetado pode ser suspenso, terminado e, quando
solicitado pelo sistema, ser retomado como se o mesmo tivesse ficado o
tempo inteiro em memória.
Nesse artigo, iremos desenvolver um aplicativo que irá salvar o seu
estado quando suspenso ou terminado pelo sistema, e retornará ao seu
estado anterior, quando executado novamente.
Um aplicativo pode ser suspenso quando o usuário o minimiza ou quando
o Windows entra em estado de economia de energia. O aplicativo suspenso
continua em memória para que o usuário possa retomá-lo de forma rápida.
Nesse caso, nenhum código é exigido e o Windows gerencia a suspensão do
mesmo. O Windows também pode encerrar um aplicativo suspenso a qualquer
momento para liberar memória para outras aplicações ou mesmo para
economizar energia. E quando isso acontece, ele é retirado totalmente da
memória.
Quando fechamos um aplicativo pressionando [Alt + F4] ou usando o
gesto correspondente ao fechar, o aplicativo é suspenso por dez segundos
e em seguida é encerrado. O aplicativo receberá uma notificação de que
está sendo suspenso, mas não irá ser notificado caso seja terminado. Com
isso, devemos manipular o evento de suspensão e usá-lo para salvar seu
estado e liberar recursos exclusivos de memórias, como ponteiros em
arquivos por exemplo.
Para garantir uma boa experiência para o usuário e passar a impressão
de que o aplicativo nunca parou de executar, precisamos manter todos os
dados já inseridos pelo usuário e configurações que ele já tenha feito,
salvando o estado do mesmo. Assim, caso seja necessário, podemos
restaurar o aplicativo do exato ponto aonde parou.
Existem dois tipos de dados que precisamos administrar em nossos
aplicativos: dados de aplicativo e dados de sessão. Vamos a um exemplo
prático?
Usando o SuspensionManager
Crie um aplicativo básico no Visual Studio 2012 (caso não tenha, baixe e instale a versão express):

Clique com o botão direito do mouse na sua solução e em “adicionar novo item”. Escolha uma Basic Page:

Caso seja perguntado se deseja adicionar arquivos necessários, clique
em sim. Isso irá fazer com que arquivos adicionais sejam incluídos na
sua solução. Entre esses novos arquivos está o
Common\SuspensionManager.cs.
Antes de iniciar o nosso código, iremos adicionar um HyperLinkButton
em nossa MainPage, para que possamos navegar até a nossa BasicPage1,
conforme figura abaixo:

De dois cliques no HyperLinkButon e em seu evento adicione o seguinte código:
this.Frame.Navigate(typeof(BasicPage1));
Depois de adicionado o link a nossa Home, irémos adicionar dois
TextLabel e dois TextBox a nossa página (BasicPage1). O importante é
nomear os TextBox como txtNome e txtSobrenome, conforme figura abaixo:

Abra o arquivo SuspensionManager. Essa classe é um helper que
simplifica o gerenciamento do ciclo de vida da sua aplicação,
serializando os dados de estado da página e escrevendo em um XML no
local de armazenamento da aplicação.
Precisamos registrar o Frame principal, para que ele possa, então,
saber de todas as páginas na aplicação e então conseguir salvar e
restaurar o estado de navegação. Devemos registrar o Frame logo depois
da criação no método OnLaunched no App.xaml.cs.
- Duplo clique App.xaml.cs no Solution Explorer;
- No método OnLaunched, utilize o metodo SuspensionManager.RegisterFrame para registrar o Frame principal.
CicloVidaWindows8App.Common.SuspensionManager.RegisterFrame(rootFrame, "appFrame");
Adicione este código depois que o Frame é criado, conforme exemplo abaixo:
if (rootFrame == null)
{
rootFrame = new Frame();
CicloVidaWindows8App.Common.SuspensionManager.RegisterFrame(rootFrame, "appFrame");
Salvando o status da aplicação
Existem dois tipos de dados para você gerenciar em sua aplicação:
dados da aplicação e dados da sessão. Os dados da aplicação são
persistentes durante diferentes sessões e devem estar acessíveis para o
usuário.
O Windows nos fornece um objeto para ajudar no gerenciamento desses
dados: Windows.Storage.ApplicationData. Este objeto tem uma propriedade
RoamingSettings que retorna um objeto do tipo ApplicationDataContainer,
que podemos utilizar para armazenar dados que precisam ser persistidos
através das sessões.
O passo a passo a seguir, irá mostrar como utilizar o
RoamingSettings, ele torna o armazenamento fácil e acessível através de
múltiplas máquinas. Basicamente, os dados são enviados para a nuvem em
background para você. Você pode utilizar LocalSettings, mas devemos
fazer essa opção, apenas quando quiser armazenar informações específicas
da máquina.
Para salvar os dados do aplicativo
Adicione o código abaixo no evento TextChanged do Textbox txtName que adicionamos a nossa BasicPage1:
Windows.Storage.ApplicationDataContainer roamingSettings = Windows.Storage.ApplicationData.Current.RoamingSettings;
roamingSettings.Values["userName"] = txtName.Text;
Para salvar o estado da sessão
Adicione a palavra-chave async à assinatura do método OnSuspending no arquivo App.xaml.cs e coloque o seguinte código dentro desse método:
await CicloVidaWindows8App.Common.SuspensionManager.SaveAsync();
O código deverá ficar assim:
private async void OnSuspending(object sender, SuspendingEventArgs e)
{
var deferral = e.SuspendingOperation.GetDeferral();
//TODO: Save application state and stop any background activity
await CicloVidaWindows8App.Common.SuspensionManager.SaveAsync();
deferral.Complete();
}
A chamada a SaveAsync salva o estado de navegação do Frame e permite que a Page salve o respectivo conteúdo.
No arquivo BasicPage1.xaml.cs, adicione este código ao método SaveState para salvar o estado da página.
pageState["txtSobrenome"] = txtSobrenome.Text;
A classe SuspensionManager serializa e salva o dicionário pageState em um arquivo XML. Os dados salvos serão salvos somente para esta sessão. O código deverá ficar assim:
protected override void SaveState(Dictionary<String, Object> pageState)
{
pageState["txtSobrenome"] = txtSobrenome.Text;
}
Agora já temos o estado da aplicação salvo. Precisamos apenas recuperá-lo quando a aplicação for restaurada.
Recuperar o estado da aplicação
- No App.xaml.cs, adicione a palavra-chave async à assinatura do método OnLaunched:
protected async override void OnLaunched(LaunchActivatedEventArgs args)
- Se o aplicativo tiver sido encerrado, chame o método SuspensionManager.RestoreAsync:
if (args.PreviousExecutionState == ApplicationExecutionState.Terminated)
{
//TODO: Load state from previously suspended application
await CicloVidaWindows8App.Common.SuspensionManager.RestoreAsync();
}
- Em BasicPage1.xaml.cs, adicione um código ao método LoadState para restaurar o estado da página.
if (pageState != null && pageState.ContainsKey("txtSobrenome"))
{
txtSobrenome.Text = pageState["txtSobrenome"].ToString();
}
Windows.Storage.ApplicationDataContainer roamingSettings =
Windows.Storage.ApplicationData.Current.RoamingSettings;
if (roamingSettings.Values.ContainsKey("userName"))
{
txtName.Text = roamingSettings.Values["userName"].ToString();
}
Para simular a suspensão, o encerramento e a restauração de um aplicativo no Visual Studio:
- Pressione F5 para executar o aplicativo no modo debug;
- Insira os dados;
- Pressione Alt+Tab para voltar ao Visual Studio;
- Abra o menu suspenso ao lado do botão Suspender na barra de ferramentas Depurar Local;
A barra de ferramentas Depurar Local é exibida por padrão enquanto o
depurador está em execução. Se ela não estiver visível, clique
em Exibir > Barras de Ferramentas > Depurar Local para exibi-la.

- Selecione suspender e encerrar.
O Visual Studio simulará a suspensão e o encerramento do aplicativo. Assim, o evento Suspending ocorrerá e o código de gerenciamento de estado será executado.
- Pressione F5 para executar o aplicativo novamente. O aplicativo será restaurado em seu estado anterior;
- Altere o nome na caixa de texto;
- Pressione Alt+Tab para voltar ao Visual Studio;
- Selecione Depurar > Parar Depuração para fechar o aplicativo;
- Pressione F5 para executar o aplicativo novamente.
Agora, o nome será restaurado, pois foi salvo à medida que você o digitou. O sobrenome não será restaurado porque o evento Suspending não ocorreu, então o estado da sessão não foi salvo.
É isso aí. Agora já sabemos como armazenar o status de nosso aplicativo.
Baixe nosso exemplo aqui: CicloVidaWindows8App.zip (287,46 kb)
Até a próxima!
*** Artigo de Ricardo Saggioni
|
Nos últimos meses, o assunto BYOD (Bring Your Own Device) tem
sido bastante debatido. Eu, pessoalmente, me envolvi em várias palestras
e reuniões com clientes para debater o tema. Mas observo muitas vezes
que a amplitude do impacto do modelo de consumerização e a consequente
transformação do paradigma de PC (Personal Computer) para Personal Cloud
não tem sido adequadamente percebido. Temos que olhar além do BYOD.
Devemos começar a visualizar o conceito de BYOC, ou Bring Your Own
Cloud.
Sair do conceito de My Documents para My Cloud tem implicações
bastante significativas na maneira de se pensar e usar a computação. A
nuvem pessoal vai transformar (aliás, já está transformando) a nossa
experiência digital. Uma nuvem pessoal é uma combinação de serviços e
aplicações nos quais os usuarios armazenam, sincronizam e compartilham
conteúdo, independentemente de plataforma, tamanho de tela e
localização. É muito mais abrangente que a simples substituição do disco
rígido do PC por armazenamento em uma nuvem. Uma personal cloud passa a
ser o hub digital para as pessoas, onde estarão penduradas a ela(s)
todos os seus dispositivos e conteúdos. Na minha opinião, permite criar a
visão da computação ubíqua.
Uma consequencia direta será o decréscimo da importância individual
dos dispositivos em troca da crescente significância do ecossistema,
cujo centro de gravidade será a nuvem. Daí as guerras pelo domínio do
ecossistema e da nuvem, onde iCloud e os dispositivos Apple ficam de um
lado e os sistemas baseados em Android e Google Drive de outro. Em
terceiro lugar, bem atrás no grid de largada, vem a Microsoft com seu
ecossistema baseado em Windows.
Com a crescente adoção das nuvens pessoais, acredito que nos próximos
anos veremos eclipsar o modelo atual, e mantemos nossos conteúdos em
nossos PCs pessoais, modelo que provavelmente será mantido apenas em
casos muito específicos. Já vemos muita coisa acontecendo com serviços
como DropBox, iCloud e dezenas de outros, conquistando milhões de
usuários. À medida que esses serviços forem gerando confiança, sua curva
de adoção tenderá a se acelerar.
Por outro lado, abre-se todo um novo campo para a criação de
aplicativos inovadores, basseados no conceito de nuvem pessoal e do seu
implicito sincronismo com qualquer dispositivo de acesso, seja ele um
smartphone, um tablet, um laptop ou uma TV.
O grande desafio será adotar o conceito My Cloud nas empresas… É cada
vez mais difícil separar nossa vida pessoal da profissional e, como a
nuvem pessoal passa a ser nosso hub de conteudo, como ignorar essa
tendência dentro das corporações? Uma coisa é armazenarmos em um DropBox
nossas fotos, músicas e vídeos das nossas férias, que pertencem a nós e
a decisão e o eventual risco é nosso. Outra é armazenar nessas nuvens
conteúdo que pertence às empresas para as quais trabalhamos.
Como é impossível segurar o tsunami que já está vindo, as empresas
devem criar políticas de uso das nuvens pessoais, criando mecanismos que
separem conteúdo profissional do pessoal e no caso de conteúdo
profissional garantam que estejam criptografados. Também é possível
criar políticas paliativas que impeçam, pelo menos por enquanto, o uso
de nuvens como iCloud e DropBox para armazenar informações corporativas.
Vale a pena ler este artigo,
que mostra por que a IBM proibiu o uso do DropBox dentro de sua
política de BYOD. Mas, por outro lado, é importante criar alternativas. A
IBM criou um similar a um DropBox interno chamado de MyMobileHube.
Sabemos que dizer não ao movimento de consumerização é absolutamente
inútil. Consumerização vai ganhar sempre. Portanto, a área de TI deve
desenhar estratégias de convivência que permitam, ao mesmo tempo,
oferecer dentro das empresas experiências similares à que os
funcionários têm em casa, mas que garantam um nível de segurança
adequado aos seus requisitos de compliance e auditoria corporativos.
Não é uma tarefa simples, mesmo porque muda o paradigma de domínio e o
controle ao qual a TI está acostumada. Além disso, há uma profusão de
dispositivos chegando a cada mês. O ritmo de inovações é muito
acelerado. Portanto, a política deve ser pragmática, definindo critérios
de aceitação de dispositivos e nuvens pessoais, não ficando presa a
produtos ou a modelos de dispositivos específicos. Manter a política sob
constante atualização e validação. Envolver as áreas jurídicas e de RH
no processo, até mesmo porque em determinadas situações as informações
corporativas que estão em nuvens pessoais podem estar em território
estrangeiro, o que iria contra algumas normas regulatórias de
determinados setores do negócio.
No final, é importante ter em mente que, mal entendemos e absorvemos o
conceito de BYOD, já estamos às voltas como o BYOC. E depois dizem que
ser gestor de TI não é um dos trabalhos mais estressantes que existem… *** Artigo de Cezar Taurion
|
O conceito de direção de arte ganhou grande importância nos EUA a partir dos anos 40, fruto da necessidade da publicidade e do cinema de representar o “american way of life“.
Cada detalhe era exagerado em sua carga simbólica na busca de
exteriorizar a imagem da perfeição e da supremacia pretendidas pelos
americanos.
Um bom exemplo deste princípio estético e político que permeava o processo de criação e produção é esta cena do filme The Milkman (“O leiteiro”) de 1950, protagonizada por Donald O’Connor, que interpreta a canção The Early Morning Song (“A Canção do Amanhecer”).
Todos elementos da linguagem audiovisual são propositadamente
“arrumadinhos” para garantir a plena compreensão da obviedade da cena
que é conduzida com extremo zelo de cenografia, enquadramento, “mickeymousing” (
técnica de representar cada movimento ou intençao da cena com elementos
rítmicos e melódicos explicitos) e com uma coreografia algumas vezes
em forma de pantomima, outras vezes em movimentos extraídos da arte
circense.
Como pano de fundo: casas, ruas, cozinhas, cercas, jardins, figurinos…. Tudo na mais perfeita exaltação da “beleza americana”, que mais tarde seria retratada de maneira decadente no filme de mesmo nome do diretor Sam Mendes.
Estes elementos e conceitos da direção de arte permeiam a
produção audiovisual, respeitando as especificidades de cada
meio também na mídia impressa e nos meios digitais.
Mas quem é o profissional responsável pela direção de arte na web
? Para responder a esta pergunta, vou voltar um pouco no tempo e
responder quem era o profissional de web quando eu começava a migrar
para esta área , por volta de 1997. Em geral, eles tinham dois perfis
bem distintos :
- Tecnológico: O pessoal de informatica, computação,
engenharia, matemática e áreas afins – Para eles, a Internet era uma
nova possibilidade de linguagens, códigos, sintaxes. Geralmente
desprovidos de qualquer senso estético, uma página web era qualquer
representação gráfica de um monte de linhas de código.
- Artístico: O pessoal de cinema, rádio e tv, artes,
comunicação e áreas afins – Para estes, a web era um novo suporte para
suas elocubraçoes visuais e sonoras, um novo meio de comunicação. De
novo o meio era mensagem, a nova aldeia global.
Essa batalha entre a arte e atecnologia já rendeu livros, filmes ,
teses e também discussões intermináveis nas agências e produtoras :
“Qualquer analista profissional de tendências nos dirá
que os mundos da tecnologia e da cultura estão colidindo. Mas o que
surpreende não é a própria colisão; é o fato de ela ser considerada
novidade” - JOHNSON, Steven. Cultura da interface: como o computador
transforma nossa maneira de criar e comunicar.
Quando do surgimento da fotografia na metade do século XIX, dizia-se
que estava decretado o fim da pintura. Quando o tímido experimento dos
irmãos Lumiere ganhou dimensões comerciais, dizia-se que o teatro e os
musicais se extinguiriam. O mesmo se falou da televisão em relação ao
rádio. De certo modo, isto se manteve inalterado até a última década do
séc. XX, momento a partir do qual a revolução digital e a Internet
começaram a varrer os últimos guerreiros analógicos das trincheiras da
mídia.
Aos poucos, quebramos a lógica de McLuhan que dizia que o meio é a
mensagem. Hoje o meio ou o suporte passa a ser indiferente, já que a
informação digital rompe a parceria entre forma e conteúdo: o conteúdo
são os bits e a forma pode ser aquela que quisermos em qualquer
dispositivo que realize a decodificação dos bits… Hoje, na segunda
década do século XXI, estas questões começam a ficar para trás. A
revolução digital já era!
Falar em revolução digital tinha sentido para aqueles que nasceram no
mundo analógico e acompanharam a transição dos átomos para os bits. Do
VHS para o DVD, do vinil para o iPod. Que sentido tem falar em revolução
digital para a geração que nasceu após 1995 e não conheceu o mundo sem
web, MP3 e afins? Interatividade agora é palavra-chave!
Os profissionais desta nova geração não têm mais necessidade de
digitalizar o mundo, mas sim de interagir com ele. Este novo
profissional, que começa a ser muito requisitado pelo mercado, é aquele
que faz a ponte entre o digital e o interativo; é aquele que transita
com desenvoltura entre as referências históricas e
as últimas novidades tecnológicas.
Voltando especificamente para a web, é importante dizer que não é
mais possível ter um olhar individual sobre as camadas de conteúdo,
apresentação e comportamento, pois elas se completam e se mesclam
interligadas pela semântica. Não existe mais nada gratuito e supérfluo.
Tudo deve ser relevante para a construção dos significados.
- Novos recursos de tipografia, antes impensados, agora tornam-se
prática comum viabilizando um número de fontes e padrões praticamente
infinitos – não mais como imagem, agora com como texto indexável e
semântico;
- CSS Regions, CSS Shaders e CSS Compositing permitem projetos responsivos e fluidos que não ficam devendo nada aos complexos layouts antes exclusivos da mídia impressa;
- WebGL e Canvas aproximam a web do mundo dos games, da animação e da realidade aumentada;
- O formato SVG ( imagem vetorial baseada em XML ) veio para ficar;
- ARIA e o cuidado com acessibilidade permitem construir experiências ricas de navegação para todos os públicos;
- UI e UX tornam-se setores estratégicos dentro das empresas.
Guardadas as devidas proporções, assim como no clip do filme The Milkman,
nenhum deste elementos é apenas um “detalhe” ou uma “firula” como se
costumava dizer. Eles são partes indissolúveis da interface, a nova
grande forma de arte, comunicação e inovação tecnológica do séc XXI.
Pensar em direção de arte para web e desconhecer este novo cenário é
ignorar a fusão “arte e tecnologia”; é ignorar o legado do homem
renascentista que está construindo uma nova era. A era da Open Web Platform:
É a época mais fascinante e inovadora da web desde de sua criação!
Karen Myers, W3C *** Artigo de Fábio Flatschart
|
No dia 19 de abril, a Microsoft apresentou a nova versão
empresarial do seu sistema operacional, o Windows 8 Enterprise. Neste
mês de agosto, foi a vez da versão RTM para empresas parceiras que irão
desenvolver dispositivos móveis para o novo sistema operacional. Com o
lançamento da versão “Pro” para o consumidor final confirmado para o mês
de outubro próximo, muitas expectativas giram em torno do Windows 8.
Sendo o primeiro sistema com uma interface universal para rodar em
dispositivos móveis e PCs, quais as mudanças esperadas com o novo
Windows para as empresas?
A área de trabalho inspirada no Windows Phone e menu Iniciar deram
lugar a um visual bem diferente em relação ao qual estamos acostumados.
Com botões e ícones bem maiores, deixando clara a intenção de facilitar o
toque com os dedos no tablet, o Windows ganha uma interface
gráfica moderna. Os programas que fazem parte do sistema operacional
como o Internet Explorer seguem a mesma linha de mudanças, e o Office
também deve ganhar uma versão “sensível ao toque”, marcando a entrada do
Windows 8 no mercado dos tablets.
A nova interface do Windows 8 pode acabar se tornando mais prática para os usuários de gadgets.
Com o aumento no número de dispositivos móveis em muitas corporações,
esse novo menu deve facilitar as operações. E isso é muito importante
para os meus clientes e, consequentemente, para mim. Acredito muito no
trabalho da Microsoft e espero que o Windows 8 seja um marco para os
dispositivos móveis.
Novos recursos
A Microsoft fez várias mudanças nesse novo sistema operacional. Vou listar algumas abaixo.
Com o Windows 8, todos os programas abertos em segundo plano entram
em uma espécie de “modo de espera”, deixando de influenciar na
velocidade de outros recursos ou processos em andamento, ou seja, não
será mais preciso fechar um programa porque ele atrapalha o desempenho
de outro. O gerenciador de tarefas também vem com algumas modificações.
Através dele, agora é possível monitorar o processador, a memória, o
disco rígido e as redes sem fio.
Outra coisa é o acesso à rede Wi-Fi, que também é mais rápido
comparado ao Windows 7. A conexão normalmente estabelecida de sete a 12
segundos deve cair para apenas um segundo. Essa agilidade é graças ao
armazenamento de preferências do usuário por certas configurações.
As diferenças entre as versões “Pro” e “Enterprise” estão em alguns
recursos adicionais exclusivos como o Windows ToGo, que permite instalar
o Windows em um pen drive. Através desse recurso, o
funcionário pode utilizar tanto o computador da empresa como o pessoal,
evitando que informações importantes sejam compartilhadas em sistemas
alheios tendo todos os dados em seu próprio pen drive. Trata-se de uma
ferramenta bastante útil para empresas que contratam funcionários
temporários e precisam que eles tenham acesso ao desktop, mas sem obter completo acesso ao servidor.
No novo sistema, também é possível o acesso remoto à rede corporativa
sem a necessidade de uma rede privada virtual separada. Os funcionários
podem acessar aplicativos de negócio e outros sites internos e os
administradores do sistema podem gerenciar remotamente os computadores e
monitorar as conexões.
O Windows 8 Enterprise ainda inclui uma tecnologia de virtualização
que permite aos desenvolvedores corporativos criar e testar diferentes
configurações de aplicativos e sistemas operacionais em um único desktop
em vez de um PC para cada configuração. Os recursos de impressão também
são melhorados com a inclusão de um driver de impressão interno que
permite imprimir em diversas impressoras sem precisar baixar ou instalar drivers de dispositivos.
Posso falar que os principais destaques do novo Windows são a
melhoria nos recursos de armazenamento e conectividade, no gerenciamento
de energia, a rapidez da interface, um sistema inteligente e versátil
para tablets e PCs e novos recursos operacionais para o setor
corporativo.
A versão oito do Windows promete uma nova experiência para
profissionais de diversas áreas e trará mudanças nos processos
estratégicos das empresas, mas ainda é cedo para sabermos se o Windows 8
vai realmente ser um divisor de águas. *** Artigo de João Moretti
|
A terceirização é uma das muitas técnicas de gestão adotadas
pelas empresas, em todo o mundo, com o objetivo de melhorar a eficiência
dos serviços. É, inclusive, uma das modalidades que mais têm crescido
na área de TI (Tecnologia da Informação). Em um cenário cada vez mais
cheio de possibilidades, esse conceito tornou-se um importante fator de
competitividade para as empresas. A terceirização é estimulada pela
crescente competitividade do mercado, o que exige que as organizações
tenham um foco de negócio muito bem definido. Um estudo da Gartner
revela que o setor movimentou, só no ano de 2011, US$ 246,6 bilhões, um
aumento de 7,8% em relação a 2010, impulsionado pelo crescimento da
demanda de Cloud Computing.
É possível optar pela terceirização de TI, desde a infraestrutura,
que pode ser feita de várias maneiras, tendo diferentes objetivos, até a
terceirização da Pesquisa e Desenvolvimento de novos produtos. Optando
por essa solução, as organizações mantêm suas divisões de serviço, mas
reduzem ao mínimo a atuação nas áreas de P&D, que são consideradas
estratégicas. A função principal da terceirização pode ser a busca de
redução de custo ou a flexibilização. Tudo isso depende do momento da
empresa.
Quando falamos de terceirização de P&D, os principais benefícios
que podem ser citados são: a liberação de pessoal para projetos
estratégicos da empresa; possibilidade de ter entregas com mais
agilidade e eficiência; produtos com melhor qualidade; redução dos
riscos associados na formação de uma equipe interna; dispor de
profissionais multidisciplinares; entre outros. Com a alocação de
especialistas, os gestores podem se focar exclusivamente na realização
das atividades de desenvolvimento e crescimento do negócio.
A grande questão é: como escolher os parceiros adequados para
fornecer este tipo de serviço? Criar uma estratégia alinhada com os
propósitos do negócio é fundamental. Não se deve avaliar apenas o custo
do serviço, é necessário levar em consideração todo o know-how
do fornecedor. Quando se pensa além do senso comum da terceirização de
P&D, a primeira preocupação existente é a necessidade de
compartilhar o conhecimento na área de TI, e esse é um ponto muito
relevante. Não se pode focar apenas na redução de custos, é necessário
buscar um parceiro de negócios, que traga uma vasta gama de habilidades
técnicas, além da confiabilidade e segurança na prestação do serviço.
Esse foi o caso da empresa RealIso, que comercializa produtos
relacionados a certificações ISO, que hoje mantém toda a sua estrutura
de P&D com a Informant, agência especializada na prestação de
serviços terceirizados em Pesquisa e Desenvolvimento de Software.
Segundo CIO da RealIso, Fábio Ramos, a terceirização garantiu aos
produtos uma tecnologia mais avançada, de acordo com cada necessidade,
fazendo com que hoje a corporação possa concentrar esforços na evolução e
comercialização de produtos, com a certeza de que possuem ao lado deles
uma das melhores equipes de Pesquisa & Desenvolvimento do mundo.
A terceirização de TI é uma realidade mundial. Cada vez mais empresas
tendem a adotar essa ferramenta, devido aos inúmeros benefícios. Porém,
ser uma empresa de TI com o negócio focado no cliente requer uma
mudança de perspectiva. Concentre-se no que você sabe fazer de melhor, e
deixe a área de TI sob responsabilidade de agências especializadas,
pois assim a terceirização pode tornar seu negócio muito mais
competitivo para atender o mercado, avançando para um novo patamar de
crescimento. *** Artigo de Cristiane Zimmermann
|
O sonho de todo usuário (e também do administrador de TI) é ter essa onipresença do Dropbox
com segurança, mas usando o próprio servidor ou até mesmo um na Amazon
(para os mais paranoicos com segurança). Mas como fazer isso? Criar uma
VPN é o mais comum, mas e a última milha do usuário? E o versionamento
de arquivos?
O Dropbox é líder quando se fala em sincronização de arquivos. Mas
por que o Dropbox é tão bom? Simplesmente porque permite a onipresença
dos arquivos do usuário aonde ele for e acessar aonde quiser com
qualquer dispositivo (mobile, tablet, notebook, etc). Temos outras
opções similares (Box.net, etc) mas sempre caímos em uma questão: usar o
servidor DELES, na nuvem DELES – e muita gente abomina essa ideia (por
exemplo, se a empresa deles falir, onde eu pego meus arquivos?).
Fuçando na Internet achei o ownCloud
que é uma plataforma similar ao Dropbox (tem softwares clientes para
Windows, Linux e Mac, o que o faz bastante flexível). É compatível com
várias distros Linux (e tem também instâncias prontas na Amazon).
Funciona também como calendário, servidor de mídia, bookmarks e outras
funções interessantes. Permite criar vários usuários com acessos
restritos por grupos. E o bom disso tudo é que é fácil de instalar
(mesmo que seja instalada “do zero”) e é opensource!
Testando o ownCloud numa instância EC2
Escolha uma instância EC2 com um troughput mais alto do que uma
Micro, devido ao tráfego de arquivos – use uma AMI (imagem) específica
com o ownCloud (ami-0fe4566, da BitNami), e o tamanho da instância usada
de acordo com o tráfego de arquivos (não use instâncias Micro, pois tem
um I/O baixo). Crie um volume com quantos gigabytes quiser e monte na
instância (usando ssh ou um Webmin instalado estrategicamente). Depois
reconfigure o volume para que o ownCloud o utilize.
É
possível setar quais diretórios sincronizar – antes é preciso criar o
diretório no servidor pela própria interface do ownCloud. Seus
documentos, fotos e tudo mais ficam seguros e podem ser sincronizados
com outras máquinas. Também dá pra sincronizar com outros servidores de
arquivos, como os “robozinhos” da QNAP e as distros NAS4Free e FreeNAS
(estas últimas com algum trabalho braçal de instalação de pacotes) – é
como se o ownCloud fosse um backup de segurança do seu NAS. Também dá
pra manter um backup de cada máquina do parque instalado (documentos,
etc).
As vantagens são muito grandes quando se tem um parque de máquinas
onde o backup é vital para casos de perda ou roubo de laptops, ou de
incêndio na sala do servidor, só para citar algumas situações. Também é
muito útil quando se tem a necessidade de ler documentos a partir de um
smartphone ou tablet. É o fim do pendrive esquecido e da
indisponibilidade – qualquer conexão de Internet serve para acessar o
ownCloud, desde que se tenha em mente que, quanto mais lenta a conexão,
maior a demora para arquivos grandes.
Conclusão
Usuários de Windows, Mac e Linux tem uma boa plataforma de backup e
sincronização de arquivos, no seu próprio ambiente ou então na nuvem da
Amazon. Ganha-se agilidade, segurança e disponibilidade a um custo
relativamente baixo. De fácil instalação e configuração, pode ser uma
boa pedida para pequenas e médias empresas. *** Artigo de Alexandre Minoru
|
É fato que o mercado brasileiro é muito dinâmico
e grande demandante de serviços de TI. Dados recentes, divulgados pela
Brasscom em estudo elaborado pela consultoria IDC, mostram que o mercado
como um todo cresceu 11,3% em 2011 e movimentou US$ 103 bilhões. O
mesmo patamar de dois dígitos foi alcançado pelas áreas de software (US$
6,2 bilhões) e serviços (US$ 14,7 bilhões).
Os gastos totais das empresas com TI (incluindo hardware, software e
serviços) totalizaram US$ 42 bilhões, o que correspondeu a uma elevação
de 17% no ano. Esse montante, em parte, é resultado do maciço
investimento empregado pelas multinacionais, que tradicionalmente
destinam uma parte considerável de seu budget para a manutenção de seu
parque de aplicações e para a adoção ou experimentação de novas
tecnologias. Mas observamos também um fenômeno interessante no Brasil, o
movimento de médias e grandes empresas familiares, em geral com receita
acima dos US$ 500 milhões, que agora começam a investir fortemente em
tecnologia e processos de gestão.
Essas empresas, que na maior parte das vezes ainda têm o dono à
frente do negócio, tiraram proveito das inúmeras oportunidades geradas
pelo crescimento econômico brasileiro nos últimos dez anos e das
dificuldades enfrentadas por potências globais frente às diversas crises
financeiras ocorridas nesse período. Essas companhias prosperaram,
começaram a exportar, abriram mercados e, agora, partem para uma nova
etapa de suas vidas.
Nesse aspecto, a TI torna-se fundamental para ajudar essas
organizações a construírem um projeto de governança, com processos bem
estruturados, controle e planejamento financeiro, integrado a um sistema
de gestão eficaz, políticas claras de segurança e compliance. Ou seja, é
necessário evoluir para alçar voos ainda maiores, seja abrir capital,
internacionalizar as operações, receber aportes de fundos de
investimentos ou mesmo se fundir com grandes grupos internacionais.
Organizações com esse perfil não precisam de um fornecedor de TI, mas
sim de um parceiro estratégico que entenda as regras de negócio da
indústria na qual ele está inserido, que possa efetivamente prestar uma
consultoria sobre o melhor caminho a seguir, os prós e os contras de
cada tecnologia, tempo e esforços necessários para obtenção do ROI etc.
Antes de tudo, é preciso entender a cultura da empresa, seus processos,
sua rotina e, claro, seus problemas.
A TI não pode ser vista como commodity, mas sim como um aliado
importante do CEO. Isso mesmo, cada vez mais não apenas o CIO, mas todo o
corpo diretivo das organizações está diretamente envolvido com os
projetos de TI pelo simples fato do impacto (positivo ou negativo) que
eles podem causar na atividade principal da organização. O conhecimento
técnico e a capilaridade são relevantes, mas devem estar associados à
presença física e ao conhecimento do mercado local.
As recentes reduções na taxa básica de juros e a desvalorização do
real vêm criando condições mais vantajosas para que as empresas expandam
seus negócios no Brasil. Os financiamentos estão mais baratos e isso
aumentou a confiança das instituições para investir. Na outra ponta, o
consumidor tem acesso a crédito com juros menores, estímulos pela
redução de impostos para determinados setores e grande oferta de
empregos. O Brasil, a exemplo de outras nações emergentes, está no radar
dos principais investidores globais e a profissionalização da gestão é
um passo inerente para quem não quer ser apenas “mais um” na multidão.
Devemos estar preparados para atender a esse contingente de empresas
que, assim com o Brasil, avançam para um novo patamar de crescimento. *** Artigo de Frederico Vilar
|
Com o lançamento do Team Foundation Server 2012,
nós ganhamos uma funcionalidade muito interessante, denominada
“Asynchronous Checkout”. Desde as primeiras versões do TFS, toda
comunicação com o servidor já era baseada em http, permitindo que
desenvolvedores trabalhassem em todos os cantos usando a Internet como
meio de integração.
O Team Foundation Server 2012 utiliza basicamente duas maneiras de
trabalho com o código fonte: uma chamada de “local workspace” e outra
chamada de “server workspace”. A opção mais comum e recomendada de uso é
o modelo local, que traz os arquivos com os quais você vai trabalhar
para uma pasta local e depois fica gerenciando apenas as alterações;
necessitando sincronizar apenas os arquivos alterados, reduzindo grande
parte da comunicação com o servidor e permitindo o uso do TFS Offline - o
que garante as operações básicas (add, edit, rename, delete, undo,
diff).
Já no modo server, os arquivos ficam centralizados no servidor,
eliminando a necessidade de baixar o projeto completo. Porém, ele não
funciona em caso de queda de conexão, o que trava o projeto e não
permite fazer alterações. Esse modelo é recomendado para projetos
grandes, com muitos arquivos e onde o cliente local não tem muito espaço
em disco.
Quando falamos de WorkSpace, ou seja, “espaço de trabalho”, não
estamos falando sobre o modelo de compartilhamento dos arquivos. Para o
compartilhamento, temos duas opções: modo exclusivo (fica preso com você
durante a edição) ou modo compartilhado (é recomendado porque todos
podem alterar qualquer arquivo). Por padrão, no template de processo
ágil, chamado de Visual Studio Scrum, o modelo de trabalho é múltiplo
check-out, permitindo uma maior colaboração e fazendo com que você não
fique parado enquanto uma outra pessoa está com algum arquivo preso.
Para configurar o modelo de compartilhamento dos arquivos vá em Team
Explorer > Settings > Team Project > Source Control conforme a
Figura 01:
Figura 01 – Configurando Multiple Check-out
Mas a grande novidade da vez no Team Foundation Server 2012 é a
funcionalidade Asynchronous Checkout, que amplia o conceito “local
workspace”, realizando um checkout em segundo plano, proporcionando para
nós, desenvolvedores, uma melhor experiência, sem “travar” o Visual
Studio enquanto ele se comunica com os serviços do Team Foundation
Server 2012.
O ‘local workspace’ é o primeiro passo para termos suporte para uma
tendência, que é o conceito de DCVS (Distributed Concurrent Versions
System). Na prática, você agora pode trabalhar tranquilamente em modo
off-line (descontado do TFS), realizando suas alterações com todos os
arquivos liberados. Quando voltar a se conectar, ele fará o sincronismo
dos arquivos. Trabalhar desconectado se tornou muito fácil com o Team
Foundation Server 2012.
Para ativar o Asynchronous Checkout vá no Team Explorer > Team
Project Collection > Source Control > Workspace Settings conforme a
Figura 02.
Figura 02 – Worspace Settings
Como você pode observar no caminho utilizado durante a configuração
do Asynchronous Checkout, fizemos diretamente no Team Project Collection
essa alteração, afetando qualquer Team Project criado nessa estrutura.
Agora, para praticar, faremos uma pequena simulação. Conforme
demonstrado na Figura 03, o arquivo HomeController.cs está disponível,
ou seja, ninguém o está manipulando nesse momento.
Figura 03 – Arquivo disponível
O próximo passo é interromper a conexão com Team Foundation Server
2012, desligando o seu cabo de rede ou qualquer outro recurso. Assim o
Visual Studio pode detectar que o TFS não está mais disponível, conforme
mostra a Figura 04.
Figura 04 – Team Explorer off-line do TFS
Com o Team Foundation Server off-line, continue trabalhando
normalmente no Visual Studio. Então, pelo Solution Explorer, abra o
arquivo HomeController.cs e inicie a edição mesmo. Você ai perceber que
naturalmente ele, mesmo descontado, está disponível para edição.
Figura 05 – Editando um código
E se você retornar ao Solution Explorer, conforme a Figura 06, verá
que o arquivo está marcado em modo de edição. Na prática, o Visual
Studio está gerenciando essas alterações que você está realizando em
modo desconectado do serviço do Team Foundation Server.
Figura 06 - Arquivo em edição
E para conferir os itens pendentes vá ao Team Explorer > Pending
Changes, conforme a Figura 07, e verá o referido arquivo na lista de
pendência local. Fantástico!!!
Figura 07 – Arquivo editado na lista de pendência.
Como você observou, ao se conectar novamente no Team Foundation
Server, basta fazer o Check-In e sincronizar as alterações com o
servidor. Para tornar essas alterações mais divertidas, enquanto
estávamos off-line eu aproveitei para me conectar ao Team Foundation
Server de outro computador e fazer uma modificação nesse mesmo arquivo.
Com isso, ao tentar sincronizar, ele vai identificar um possível
conflito. A ferramenta tenta resolver sozinha e quando não consegue
alerta você, conforme pode observar na Figura 08, caindo na rotina
padrão de gestão de merge no TFS.
Figura 08 – Resolve conflicts
Você pode escolher a sua alteração, escolher a versão do servidor ou
entrar na ferramenta de Merge, conforme a Figura 09, e fazer manualmente
os ajustes. Depois de resolvido, é só efetuar um novo Check-in.
Figura 09 – Ferramenta de merge
O Team Foundation Server 2012 ganhou mais agilidade no gerenciamento
de código mesmo estando off-line, o que nos dá mais liberdade para fazer
as alterações e, depois, quando possível, realizar o sincronismo
integrando o seu código com a sua versão principal no servidor.
Outro ponto importante em destaque e que vai fazer a diferença é
justamente o suporte ao modo assíncrono, permitindo uma maior agilidade
nas operações com o controle de versão, deixando o Visual Studio 2012
liberado para você continuar trabalhando. E, de brinde, outra novidade é
que agora o Visual Studio detecta alterações externas nos arquivos e
inclui automaticamente essas alterações na sua lista de pendência.
|
Empresas de todos os
portes já descobriram as vantagens de adquirir sistemas de TI que
facilitem suas atividades. Tanto que o aumento de serviços nesse setor
está crescendo em todo o mundo. Segundo o Gartner, a expectativa é que
sejam gastos 817,9 bilhões de dólares no setor somente este ano, o
que representa um crescimento de 4,6% no mundo.
O
Brasil está seguindo essa tendência, o mercado brasileiro de TI terá
crescimento de 13% em 2011, somando aproximadamente 39 bilhões de
dólares em investimentos, segundo a consultoria IDC. Nos dias atuais, é
impossível pensar em uma empresa que não invista em sistemas de TI. E a
previsão dessas empresas é aumentar ou manter esses volumes de
investimentos.
A
alocação de profissionais ou a contratação do desenvolvimento externo
de sistemas são as duas formas de terceirização mais conhecidas. Com a
alocação de profissionais, a gestão do desenvolvimento do sistema fica
por conta da empresa contratante. Já com a contratação de uma fábrica de
software para o desenvolvimento do sistema, a empresa contratada deve
entender a necessidade do cliente, definir o escopo, desenvolver e
entregar o sistema pronto, ficando responsável por toda a gestão.
Contudo,
cada empresa tem uma necessidade específica, pois é possível
terceirizar os serviços para realizar desde pequenas manutenções até o
desenvolvimento de grandes projetos. Em certos casos, é necessário
combinar alocação de profissionais com projetos de fábrica de software.
Para
não sobrecarregar os funcionários e comprometer o crescimento da
atividade fim das empresas, uma das alternativas adotadas é a
terceirização dos serviços da área de TI. Essas empresas obtêm inúmeras
vantagens, pois conseguem alavancar desenvolvimentos de sistemas, cujos
colaboradores internos não conseguem atender, por estarem com
as atenções voltadas para o core business da organização.
Com
a terceirização, os gestores não precisam selecionar, contratar,
qualificar e posteriormente demitir. Não há necessidade de passar por
todo esse processo burocrático. A terceirização permite que haja um
profissional capacitado para desenvolver o projeto, mas sem o ônus
desses processos.
Claro
que os cenários são variados e que não há nenhuma pesquisa que comprove a
redução dos valores, mas com a contratação de uma empresa de alocação,
esses serviços estão sob responsabilidade da empresa contratada.
Quando
a empresa opta por alocar profissionais, na maioria das vezes, é porque
não há especificações necessárias ou elas mudam com rapidez.
A
outra forma de terceirização, que é contratar uma empresa para
desenvolver o sistema, tem a vantagem da gestão do projeto ficar sob
responsabilidade da empresa contratada. Assim sendo, ela gerenciará e
desenvolverá o projeto dentro do prazo e orçamento definidos.
Nesse
caso, exige-se uma especificação clara dos serviços com um alto grau de
precisão. Mesmo assim, é importante que o cliente acompanhe a gestão,
geralmente por meio de reuniões semanais e relatórios, assim como a
atualização do cronograma e ajustes de prioridades.
Tanto
na alocação de profissional quanto na contratação de uma fábrica de
software, deve existir uma relação de confiança entre as partes.
Analisar o currículo da empresa e sua história é fundamental, mas o
contato com clientes e visitar a empresa fazem toda a diferença.
As
variáveis que permitem decidir um caminho ou outro nem sempre são
financeiras, têm a ver com organização interna das empresas, capacidade
de gerenciamento e principalmente comprometimento.
As fronteiras são sempre sutis, mas aqui vão algumas dicas na hora da escolha:
Uma
vez decidido que o projeto a ser desenvolvido deverá ser terceirizado,
deve-se definir a forma de terceirização, alocação de profissionais ou
fábrica de software, considerando os seguintes aspectos:
- Espaço físico disponível.
- Softwares e hardwares necessários.
- Prazo de entrega.
- Disponibilidade de gestão.
Custo do serviço.
Cada caso merece uma atenção especial por se tratar de uma venda consultiva.
|
RSS é uma tecnologia muito útil para pessoas
que, assim como eu, investem parte do seu tempo lendo o conteúdo gerado
por vários blogueiros da nossa área. Se você quer saber mais sobre os
esquemas que formam essa tecnologia de agregação, clique aqui.

No
momento estou produzindo um projeto que irá gerenciar e publicar
conteúdo, então precisei consumir alguns feeds através de uma aplicação
.NET. Como sou preguiçoso, fiz uma pequena pesquisa e esbarrei com uma
biblioteca Open Source de leitura de feeds, o RSS.NET.
A
biblioteca possui um design Old School, da época que não existia
Generics e herdávamos de CollectionBase para ter uma classe de coleção
mais legível. Apesar de simples, a biblioteca é muito poderosa e de
fácil utilização. Vejam como consumir um feed no código a seguir:
[TestMethod] public void Informacoes_basicas_do_feed() { var url = "http://heroisdati.com/feed/";
// Realiza a leitura do feed. var feed = RssFeed.Read(url);
// Informa a URL do Feed que foi carregado. Assert.AreEqual(url, feed.Url);
// Versão do feed. Assert.AreEqual(RssVersion.RSS20, feed.Version);
// Indica se o que foi retornado é um cache. Assert.IsFalse(feed.Cached);
// Tag de identidade do feed. Um hash utilizado para controlar o cache. Trace.WriteLine(feed.ETag);
// Última data de modificação. Trace.WriteLine(feed.LastModified); }
Além das informações básicas do feed, você também acessa as informações sobre os canais que o mesmo contém. Confira o código:
[TestMethod] public void Informacoes_sobre_o_canal() { var feed = RssFeed.Read("http://heroisdati.com/feed/");
// Indica quantos canais o feed contem. Assert.AreEqual(1, feed.Channels.Count);
// O canal descreve o conteúdo do feed. var heroisdati = feed.Channels[0];
// Título do canal. Assert.AreEqual("Heróis da T.I.", heroisdati.Title);
// Link do canal. Assert.AreEqual("http://www.heroisdati.com/", heroisdati.Link.ToString());
// Descrição do canal. Assert.AreEqual("Por Denis Ferrari", heroisdati.Description); }
No canal, você terá acesso a todos os seus itens, podendo utilizar
todas as informações necessárias para o acesso à informação. Vejam como é
simples:
[TestMethod] public void Informacoes_dos_posts() { var feed = RssFeed.Read("http://heroisdati.com/feed/"); var heroisdati = feed.Channels[0]; // Quantidade de posts no canal. Trace.WriteLine(heroisdati.Items.Count); // O último post é o mais novo. var ultimoPost = heroisdati.Items[0]; // Título do post. Trace.WriteLine(ultimoPost.Title); // Link do post. Trace.WriteLine(ultimoPost.Link); // Autor do post. Trace.WriteLine(ultimoPost.Author); // Descrição do post. Trace.WriteLine(ultimoPost.Description); // Link para os comentários do post. Trace.WriteLine(ultimoPost.Comments); // Na prática, essa coleção apresenta as categorias e as tags. foreach (RssCategory categoria in ultimoPost.Categories) { // Nome da categoria Trace.WriteLine(categoria.Name); } }
Essa biblioteca é muito simples e poderosa. Já possui uma versão
comercial melhorada, mas a Open Source me atendeu bem até agora. Sendo
assim, se precisar trabalhar com RSS, fica a dica da biblioteca.
Links importantes:
Abraços!
|
O cloud computing é uma tecnologia que surge misturada com propagandas
voltadas para consumidores que não demonstram aquele perfil tão técnico assim. Eu
acredito que certas tecnologias demoram a engrenar devido ao apelo mais técnico
do que comercial. Diferente dos iPads e iPhones que, apesar da revolucionária
tecnologia envolvida, apostam muito mais em design e em facilidade de uso do
que em jargões, como os que são utilizados para a venda de computadores, como,
por exemplo, processador AQUON Tetra Core de 3Ghz, LCD de 20 polegadas com 16
Gigabytes de memória e HD de 1 Terabit.
Note bem, no mundo da tecnologia, ainda são utilizadas como argumento
de venda as especificações, e não o sonho ou a possibilidade. As pessoas
compram gigahertz e gigabytes sem saber ao certo o que isso pode fazer por elas.
E é aí que surge aquela pergunta: “Para que ter uma Ferrari, se você não sabe
dirigir?”
Vou tentar ser o menos técnico possível, apesar de saber que o texto
atrairá em sua maioria pessoas de um perfil um tanto técnico e não serei
tendencioso a marcas e cheio de especificações, como no artigo que li publicado
em um site sobre o assunto.
Dez razões que fazem a computação na nuvem tão legal:
1. Pague apenas pelo que você utiliza
Este é um conceito que finalmente chega ao
nosso alcance na parte computacional. Por que comprar um CD com 20 músicas se
gostei de apenas três ou quatro? Com o rápido avanço da tecnologia, a maioria
dos computadores vendidos atualmente são super dimensionados para as nossas
necessidades.
Na parte empresarial, muitas vezes, são
investidos valores substanciais para comprar um servidor, com processamento, armazenamento
e memória muito além do que será utilizado. Geralmente é apenas para rodar um
aplicativo ou banco de dados, ou até mesmo para servir de site da empresa. Há
muito ficou provado que a maioria das empresas, mesmo as que têm servidores
obsoletos, utilizam em média 20% da capacidade real do computador, fazendo com
que esta máquina seja um investimento caro.
A realidade por trás da virtualização é bem
diferente. Sua proposta está exatamente no pague pelo uso, ou seja, pague
apenas na proporção de processador, memória e armazenamento que você irá
utilizar, pois, na verdade, aquele computador terá seu custo repartido com
vários outros usuários. Invertendo a possibilidade de alocar a parte de um
servidor e dividi-lo com outras empresas, está a possibilidade de compra, mas
utilizá-lo de forma a distribuir sua capacidade com vários colaboradores em sua
casa ou escritório, instalando sistemas operacionais e aplicativos diferentes
em uma mesma máquina, com a mesma performance e capacidade de uma máquina
convencional.
2. Foto instantânea
Não estou falando sobre a capacidade de a
virtualização guardar as fotos de suas férias para compartilhar com seus
amigos, e sim da possibilidade de guardar momentos imediatos em que sua máquina
se encontra. Imagine aquele momento em que você instalou todos os aplicativos
necessários para seu trabalho, conectou em sua caixa de mensagens, adicionou os
atalhos necessários em seu navegador da web e baixou novas atualizações. Pense
nesse cenário como uma foto que você desejasse ter sempre que sua máquina
começasse a ter um comportamento inesperado, executando operações ilegais e
abrindo sites que não deveriam aparecer em sua tela.
Quando seu computador passa a atrapalhar
mais do que ajudar em suas tarefas, simplesmente pegue aquela foto que você
tirou e, em apenas um clique e alguns segundos, sua máquina volta a ser
exatamente igual ao retrato que você fez quando estava tudo funcionando
perfeitamente. Há anos, a indústria luta com a deterioração dos sistemas
operacionais e com problemas de atualizações indevidas, são muitas horas e dias ao
telefone com o suporte tentando resolver problemas insolúveis. Com esse
artifício, você pode ficar indo e voltando no tempo para testar aplicativos e
realizar operações que poderiam deixar seu sistema operacional em risco, sem a
preocupação de reinstalar tudo.
3. Nuvem híbrida
Para aqueles que ainda não se aprofundaram
no conceito da virtualização, temos atualmente a possibilidade de ter uma nuvem
privada (infraestrutura de virtualização interna na empresa) e a nuvem pública,
mas existe a possibilidade de utilizar ambas para termos uma nuvem híbrida.
Alguns ainda confundem o conceito de nuvem pública, que oferece aplicativos,
como banco de dados e e-mails, de forma não segura, com a utilização da nuvem
privada, sendo mais segura e servindo a propósitos limitados para as empresas.
A nuvem híbrida vem para quebrar essa limitação e falta de segurança,
permitindo que as empresas possam dimensionar a utilização da infraestrutura,
conforme o número de projetos administrados, de maneira rápida e eficaz,
permitindo que as duas nuvens coexistam com segurança e escalabilidade
necessária.
4. Alta disponibilidade e recuperação de
desastres
Alta disponibilidade e recuperação de
desastres sempre foi algo que, mesmo para grandes empresas, é dispendioso e
complicado de implementar e de manter. Às vezes, até para empresas de pequeno porte
é essencial ter garantias de que seu negócio não vai ficar parado pela queda de
um raio ou por uma pane em seu provedor. Com a virtualização, a alta
disponibilidade pode ser ativada através de uma interface web ou, até mesmo,
surgir automaticamente e, da mesma forma, a recuperação de desastres se tornou
mais prática e barata. Mas cuidado ao depositar toda essa confiança ao seu
provedor de serviços, manter a informação ao seu alcance sempre será o melhor
negócio.
5.
Não tem mais backup?
Este é aquele tipo de palavra que sempre
nos faz tentar entender por que ela é tão importante, mas sempre é relegada a momentos
de insatisfação, dúvida, raiva e, para não lembrar, o total esquecimento. A
palavra “restore” então... Poucos sobreviveram para contar o resultado dela.
Com a virtualização, o conceito de backup pode ser finalmente automatizado de
forma segura. As empresas e os usuários sabem que esse é um processo árduo e
custoso e que não consegue se mostrar útil e eficaz, e isso passou a ser feito
automaticamente com muita eficiência.
6. Coloque a troca de servidores no passado
A maioria das empresas mantém servidores
com três anos de idade e têm pesadelos constantes só de pensar em sua parada ou
em ter que trocá-lo um dia. Nós sabemos que a dor de cabeça causada terá que compensar
sua evolução. Imagine o trabalho de realizar a migração de um sistema
operacional antigo, seus arquivos e manter o sistema anterior funcionando.
Talvez por isso muitos acabam não aposentando o servidor anterior até sua morte
definitiva. Com a computação na nuvem, você literalmente virtualiza seu
servidor antigo em uma máquina nova e pode fazer as migrações necessárias,
totalmente imperceptíveis aos seus usuários.
7.
Catálogo de software
O surgimento das lojas de aplicativos da
Apple, do Google e da Microsoft continua transformando a forma como adquirimos
produtos e serviços, e isso já é uma realidade no campo da virtualização.
Quando você precisar montar uma máquina com as especificações determinadas pelo
seu fornecedor, independentemente do sistema operacional ou banco de dados e
aplicativos necessários, bastará entrar nessa loja online e buscar por uma
máquina virtual que atenda aos requisitos e ela ficará disponível
instantaneamente para seu uso.
8. Importe e exporte
A virtualização ainda pode ficar mais maravilhosa
do que já é, e isso é possível com a opção de enviar sua máquina inteira para a
nuvem. Apesar de possuirmos máquinas relativamente leves (10 GB+) e conexões
não tão rápidas assim (5 a 10 MB/s), ainda leva tempo mover da nuvem privada
para pública, mas é possível sair com sua máquina virtual inteira dentro de um
pen drive e levá-la para onde quiser.
9.
Mude do fixo para o variável
Muitos ainda tratam a tecnologia como um
custo fixo e a maioria torce o nariz para este recurso fundamental para
existência de uma empresa. Imagine você ter um novo projeto, que irá durar três
meses em sua empresa, e ter que montar dez novos pontos de trabalho para
executá-lo. Na virtualização, esses dez pontos podem ser montados
instantaneamente, com os aplicativos necessários, e podem ser redimensionados em
qualquer tempo. Mesmo na oscilação de seus usuários, a flexibilidade que a
virtualização permite em ligar ou desligar esses pontos de trabalho é de longe
o mais lucrativo para a empresa.
10.
Economize
tempo e dinheiro
A
computação na nuvem veio para ficar. E mesmo que você não tenha identificado um
bom uso para ela, certamente você não está voltado para este papo de
tecnologia, mas com certeza você deve entender que ela gera economia, e disso
todo mundo gosta. O mercado já oferece milhares de opções de computação na
nuvem e realmente fica difícil encontrar qual delas trará resultado mais
eficaz, algumas você até já utiliza, mas não quantificou o ganho nisso. O
importante é entender que, quanto mais você aderir, mais produtivo e lucrativo será.
artigo publicado originalmente no iMasters, por Humberto A. Izabela
|
 O centenário da IBM foi ontem, e os seus 100 anos de trabalho árduo não devem passar desapercebidos. Por trás de cada grande avanço tecnológico, você provavelmente vai encontrar o nome da IBM flutuando em algum lugar. Aqui estão 8 ótimos exemplos de tecnologias ajudadas pela IBM. Computadores pessoais Sem a IBM, nós simplesmente não teríamos computadores – ou eles provavelmente seriam algo diferente. Desde os mais primitivos computadores-máquinas-de-calcular até os supercomputadores de hoje, passando pelos modestos desktops caseiros, a IBM teve o seu papel no desenvolvimento e na evolução de cada uma das maiores fases da computação. Outras máquinas existiam antes das da IBM, e depois delas a Microsoft e a Apple levaram essas máquinas a novas alturas, mas foi com a introdução do PC IBM 5150 que o mundo começou a entender o que diabos eram essas caixas nerds. Em 1982, era a Máquina do Tempo do Ano! Cirurgia LASIK Três cientistas da IBM, Samuel Blum, Rangaswamy Srinivasan e James J. Wynne, não sabiam direito o que fazer com o laser ultravioleta que a sua empresa havia adquirido em 1981. Foi quando Srinivasan trouxe sobras do peru do dia de Ação de Graças para ver o que aconteceria quando ele fosse exposto ao laser. Acontece que ele vaporizou o ponto de contato sem danificar o tecido ao redor. Foi o nascimento da cirurgia ocular LASIK, que foi aprovada pela FDA 1995 para, por exemplo, fazer míopes largarem os óculos. RAMComo você deve saber, a RAM é a tecnologia de memória que faz com que os nossos computadores fiquem rápidos e responsivos. Em 1967, Robert Dennard inventou uma célula de Memória de Acesso Randômico Dinâmico, composta de um transístor, conhecida como DRAM. Ela foi patenteada em 1968, e veio a se tornar a base para a maior parte das soluções de memória atuais. Compras online Em 1994, os engenheiros da IBM John King e John Nilsen conseguiram uma patente para um “sistema para encomenda de itens usando um catálogo eletrônico”. Em essência, foi isso que começou a era do comércio eletrônico. Sem as portas abertas pelos estudos da IBM, será que a Amazon seria tão avançada como é hoje? Discos rígidos Nós estamos saindo da era do armazenamento magnético, com SSDs e pen drives, mas a IBM foi responsável pelos últimos 30 anos de discos rígidos que guardavam todos os dados nos nossos computadores. A pesquisa de William Goddard nos anos 50 eventualmente se tornou a 350 Disk Storage Unit, a primeira implementação de armazenamento magnético em computadores. Os primeiros modelos, que apareceram em 1956, ficavam em um gabinete de quase dois metros de altura e largura, e continham 50 discos magnéticos, que giravam a 1200 RPMs. A primeira geração do 350 armazenava até 5 milhões de caracteres/números. Mais de 1000 unidades foram vendidas antes da aposentadoria do 350 em 1961. O pouso lunar OK, talvez o pouso lunar de 1969 não seja parte do nosso dia-a-dia, mas é algo que todos conhecemos e sobre o qual pensamos a respeito com frequência. Cerca de 4000 empregados da IBM ajudaram a construir os computadores e os softwares da NASA necessários para um pouso bem-sucedido da Apollo 11, que ainda figura entre os maiores e mais significativos feitos da humanidade. Sistemas-guia para foguetes foram desenvolvidos, computadores do tamanho de geladeiras foram avançados e comprimidos para o tamanho de pastas e softwares de monitoramento em tempo real surgiram. Segundo o diretor de voo da Apollo 11, Gene Kranz, “sem a IBM e os sistemas fornecidos por eles, não teríamos pousado na lua”. Códigos de barra e faixas magnéticas Segundo a revista Popular Mechanics, as tecnologias da IBM são responsáveis por duas das mais utilizadas tecnologias no mundo consumidor de hoje: os códigos de barras e as faixas magnéticas encontradas em cartões de todos os tipos. As primeiras ideias para códigos de barras apareceram no fim dos anos 40, mas a tecnologia para ler e para interpretar os símbolos ainda não estava madura. Quando o advento do laser chegou, o engenheiro da IBM George Laurer e a sua equipe desenvolveram um sistema para interpretar os códigos, que dividiria o design gráfico em dois, de modo que um laser em X pudesse ler. Depois de aparecer pela primeira vez em um produto em 1974, o código de barras é usado ainda hoje em praticamente tudo que está à venda. Quanto à faixa magnética, Jerome Svigals desenvolveu a tecnologia no fim dos anos 60, com um pedaço de papelão com uma faixa magnética servindo como primeiro protótipo. A tecnologia eventualmente chegou ao povo na década seguinte, e hoje mais de 50 bilhões de leituras de faixas magnéticas ocorrem todo ano. Videogames atuais Aposto que você adora os seus videogames, não? Saiba que eles usam tecnologia de CPU da IBM. A Nintendo faz uso deles desde o GameCube, e o processador IBM do Wii U vai incorporar um pouco do DNA de supercomputador do Watson. O PS3 também deve um belo pedaço do seu poder ao processador Cell da IBM. E o Xbox 360 também usa um processador IBM triple-core, mas não fala tanto disso no seu marketing. artigo publicado originalmente no iMasters, por Gizmodo
|