Especialistas acreditam que a inteligência das máquinas (IA) se equiparará à de humanos até 2050, graças a uma nova era na sua capacidade de aprendizado. Computadores já estão começando a assimilar informações a partir de dados coletados, da mesma forma que crianças aprendem com o mundo ao seu redor. Isso significa que estamos criando máquinas que podem ensinar a si mesmas a participar de jogos de computador – e ser muito boas neles – e também a se comunicar simulando a fala humana, como acontece com os smartphones e seus sistemas de assistentes virtuais.
Fei-Fei Li, professora da Universidade de Stanford e diretora do laboratório de visão computacional da instituição, passou os últimos 15 anos ensinando computadores a enxergar. O objetivo dela é criar olhos eletrônicos para robôs e máquinas e torná-los capazes de entender o ambiente em que estão. Metade da capacidade cerebral de um humano é usada no processamento visual, algo que fazemos sem um grande esforço aparente. “Ninguém diz para uma criança como enxergar. Ela aprende isso por meio de experiências e exemplos do mundo real”, disse Li em sua palestra na conferência TED neste ano.
“Se você pensar, os olhos de uma criança são como um par de câmeras biológicas que tiram fotografias a cada 200 milissegundos, o tempo médio dos movimentos oculares. Então, aos 3 anos de idade, uma criança teria centenas de milhões de fotos. Isso é um grande treinamento”. Ela decidiu ensinar computadores da mesma forma. “Em vez de só me concentrar em criar em algoritmos cada vez melhores, minha ideia é dar aos algoritmos o treinamento que crianças recebem por meio de experiências, quantitativamente e qualitativamente”.
Em 2007, Li e um colega de profissão começaram a filtrar e identificar 1 bilhão de imagens obtidas na Internet para que sirvam de exemplos do que é o mundo real para um computador. Eles pensavam que, se uma máquina visse imagens suficientes de uma determinada coisa, como um gato, seria capaz de reconhecer isso na vida real.
Eles pediram ajuda em plataformas de colaboração online e contaram com o apoio de 50 mil pessoas de 167 países. No fim, tinham a ImageNet, uma base dados de 15 milhões de imagens relativas a 22 mil tipos de objetos, organizada de acordo com seus nomes em inglês.
Isso se tornou um recurso valioso usado por cientistas ao redor do mundo que buscam conferir aos computadores uma forma de visão. Todos os anos, a Universidade de Stanford realiza uma competição, convidando empresas como Google, Microsoft e Baidu para testar a performance de seus sistemas com base na ImageNet.
Nos últimos anos, esses sistemas tornaram-se especialmente bons em reconhecer imagens, com uma margem de erro média de 5%.
Para ensinar computadores a reconhecer imagens, Li e sua equipe usaram redes neurais, nome dado a programas de computadores feitos a partir de células artificiais que funcionam de forma muito semelhante à de um cérebro humano. Uma rede neural dedicada a interpretar imagens pode ter desde algumas centenas a até milhões destes neurônios artificiais, dispostos em camadas.
Cada camada reconhece diferentes elementos de uma imagem. Uma aprende que uma imagem é feita de pixels. Outra reconhece cores. Uma terceira determina seu formato, e assim por diante. Ao chegar à camada superior – e as redes neurais hoje têm até 30 camadas –, essa rede é capaz de ter uma boa noção do que se trata a imagem.
Site: iMasters
Data: 21/09/2015
Hora: ------
Seção: Tecnologia
Autor: ------
Link: http://imasters.com.br/noticia/ia-maquinas-que-pensam-devem-surgir-ate-2050/?trace=824205206&source=news-home