A criação do iPhone em 2007 deu um novo sentido à computação móvel. Até então, os celulares basicamente faziam ligações, tiravam fotos, enviavam mensagens de texto (SMS) e armazenavam uma agenda de contatos. O iPhone mudou as regras do jogo, derrubando inclusive empresas líderes que não entenderam o novo cenário, como a Nokia.
Com o iPhone o celular passou a ser um computador móvel, onde uma de suas inúmeras funções era exatamente o celular. Acoplando maior capacidade computacional e mais e mais sensores, criou-se um cenário inovador para a criação de milhões de aplicações, sofisticadas e contextuais. Ele já é extensão do nosso cérebro e faz parte do nosso dia a dia, com sensores que capturam pulso, temperatura, nível de colesterol, se estamos parados ou andando e qual nosso ritmo de caminhada, batimento cardíaco, onde estamos, com quem falamos ou trocamos ideias, quais nossos compromissos e cada vez mais o que queremos e que faremos a seguir.
Este cenário nos leva a um novo desafio: a criação de apps que entendam o contexto de cada usuário e ajam de forma preditiva, disparando ações até mesmo sem nossa interferência. Isto é possível porque o smartphone, com seus inúmeros sensores, e tendo na retaguarda nuvens computacionais com milhões de petabytes e modelos preditivos, consegue capturar e analisar as relações de seu proprietário com outras pessoas, empresas, objetos e o ambiente ao seu redor.
Os smartphones estão se transformando em verdadeiros assistentes pessoais, podendo ser considerados nosso sexto sentido, o sentido digital.
A interface torna-se cada vez mais intuitiva e provavelmente o modelo de comunicação com eles será através de comunicação natural, como demonstram o Siri, o Cortana e o Google Now.
Com um conhecimento contextual eles podem nos ajudar na tomada de decisões e até mesmo, baseado em inferências, tomar decisões por si, e apenas nos solicitar aprovação. Por exemplo, analisando o prato à sua frente (pela câmera) e sabedor de sua dieta, alertar que o nível de calorias está acima do recomendado. Sabendo onde você está e se está caminhando, qual é sua velocidade, e conhecedor de sua agenda, identificar que você está em um ritmo que o fará chegar atrasado ao compromisso. Ele alerta e você decide se andará mais depressa ou pedirá a ele, via interface de voz, que alerte as pessoas com que você deve se encontrar que você chegará dez minutos atrasado...
Estes apps contextuais caracterizarão a nova geração de apps. Muitos dos apps atuais, principalmente os corporativos, são apps baseadas na metáfora dos desktops travestidos para smartphones e tablets. Não exploram a potencialidade dos sensores destes equipamentos e nem da capacidade das nuvens que estão na retaguarda, com milhões de petabytes e sofisticados algoritmos preditivos.
A camada tecnológica para os apps contextuais já existe. Os sistemas de NLP (Natural Language Processing) já estão bem evoluídos e melhoram a cada dia. Já vimos, na prática, o que os computadores são capazes, quando em 2011 surgiram o Watson, da IBM e o Siri, da Apple. De lá para cá, as interfaces em linguagem natural evoluíram significativamente e tudo indica que evoluirão muitas vezes mais nos próximos anos. O uso de NLP como interface natural de comunicação com smartphones será uma mudança tão significativa quanto foi o surgimento do interface gráfica (GUI) como o Windows, na era do PC.
A desmaterialização da tecnologia, com mais e mais capacidade de processamento e armazenamento de informações em espaço cada vez menores, já nos permite colocar muitos mais sensores nos smartphones e nos objetos à nossa volta. Estes objetos comunicar-se-ão com os smartphones, que serão nossos hubs pessoais (ou nossos próprios servidores de redes de objetos pessoais) e permitirão capturar muitas informações sobre nossa localização, identidade, nossas atividades, nosso estado físico, nossas tarefas e assim por diante. Um exemplo muito interessante é o
Gimbal, plataforma para desenvolvimento de apps contextuais.
Além da NLP e dos sensores, teremos mais e mais algoritmos preditivos na retaguarda dos smartphones. Estes algoritmos permitirão que os smartphones tomem decisões baseadas em nosso padrão de comportamento e atividade. Nos próximos anos, os apps contextuais ou apps cognitivos se tornarão o modelo mental de apps para mobilidade. Isto significa que os desenvolvedores deverão ter a preocupação de saber como desenvolver tais apps e que skills serão necessários para isso.
Estamos preparados ou nos preparando para esse cenário?(*) Cezar Taurion é CEO da Litteris Consulting, autor de seis livros sobre Open Source, Inovação, Cloud Computing e Big Data
Site: CIO
Data: 01/09/2014
Hora: 7h10
Seção: CIO
Autor: Cezar Taurion
Link:
http://cio.com.br/tecnologia/2014/09/01/apps-contextuais-sao-o-novo-modelo-dos-aplicativos-moveis/