sistemas de inteligência artificial que supera humanos

Sistemas de Inteligência Artificial que já superam os humanos


Desde 2011, a IA cresceu vertiginosamente, e pesquisadores criaram várias soluções de IA que são quase tão boas quanto – ou melhores que – humanos em vários domínios, incluindo jogos, saúde, visão computacional e reconhecimento de objetos, conversão de fala em texto, reconhecimento de orador e robôs e chat-bots aprimorados para resolver problemas específicos.

Cada década parece ter suas palavras tecnológicas: nós tínhamos computadores pessoais nos anos 80; Internet e rede mundial na década de 1990; smartphones e mídias sociais nos anos 2000; e Inteligência Artificial (IA) e Machine Learning nesta década.

Domínios onde os sistemas de IA estão competindo com seres humanos

A era de 1950-82 viu nascer um novo campo de Inteligência Artificial (IA), muitas pesquisas pioneiras sendo feitas, um enorme hype sendo criado, mas que acabou se extinguindo. A era 1983-2004 fez com que a pesquisa e o desenvolvimento da IA ​​gradualmente aumentassem e conduzissem a algumas conquistas importantes (por exemplo, Deep Blue vencendo Kasparov no Xadrez) e comercializassem soluções (por exemplo, Cyberknife), mas seu ritmo realmente melhorou em 2005 e 2010.

Este artigo lista as principais soluções de inteligência artificial que rivalizam com humanos em vários domínios. Depois de discutir essas seis soluções de inteligência artificial, discutimos as principais razões desse super crescimento, incluindo os efeitos da lei de Moore, computação paralela e distribuída, software de código aberto, disponibilidade de Big Data, crescente colaboração entre a academia e a indústria e a quantidade de pesquisas que estão sendo realizadas. feito em AI e seus subcampos.

IBM Watson vence humanos no Jeopardy

Em 2006, o IBM Watson Research Center embarcou na criação do IBM Watson, um sistema que usaria machine learning, processamento de linguagem natural e técnicas de recuperação de informações para vencer seres humanos no jogo chamado Jeopardy! O IBM Watson possuía 90 servidores, cada um dos quais usava um processador de oito núcleos, quatro encadeamentos por núcleo (ou seja, um total de 2.880 encadeamentos do processador) e 16 terabytes de RAM. Esse poder de processamento permitiu que o IBM Watson processasse 500 gigabytes, ou cerca de um milhão de livros por segundo. Hoje, esse sistema custaria cerca de 600.000 dólares.

Os pesquisadores da IBM perceberam desde o início que das 3.500 perguntas do Jeopardy selecionadas aleatoriamente, os títulos da Wikipédia continham pelo menos 95% das respostas. Assim, o IBM Watson continha toda a Wikipedia e essa “engenharia de recursos” era uma das principais idéias para ganhar o Jeopardy! Ele também continha 200 milhões de páginas de outros conteúdos, incluindo Wikcionário, Wikiquote, múltiplas edições da Bíblia, enciclopédias, dicionários, dicionários de sinônimos, artigos de notícias e outras obras literárias e outros bancos de dados, taxonomias e ontologias (por exemplo, DBPedia, WordNet e Yago) para linkar vários documentos.

AlphaGo vence humano no jogo GO

Em 2016, pesquisadores do DeepMind, do Google, criaram o AlphaGo, que derrotou o atual campeão mundial, Lee Sodol, no jogo Go. O AlphaGo avaliou posições e movimentos selecionados usando redes neurais profundas, que foram treinadas por aprendizado supervisionado usando movimentos de especialistas humanos, e por aprendizado por reforço. Em 2017, os pesquisadores do Deep Mind introduziram o AlphaGo Zero, que foi baseado exclusivamente no aprendizado por reforço, sem dados humanos, orientação ou conhecimento de domínio, exceto pela incorporação das regras do jogo. Ao jogar 4,9 milhões de jogos contra si mesmo, o AlphaGo Zero melhorou e acabou ganhando 100-0 contra o campeão anterior, o AlphaGo.

Direção de Carros Autônomos

Nos anos 80, os pesquisadores da Carnegie Mellon University construíram o primeiro protótipo de carro autônomo, mas ele tinha capacidades limitadas. Em 2005, o governo dos EUA (via DARPA) lançou o “Desafio Urbano” para que carros autônomos obedeçam às regras de trânsito e operem em um ambiente urbano e, em 2009, pesquisadores do Google construíram um carro autônomo. Em 2015, Nevada, Flórida, Califórnia, Virgínia, Michigan e Washington, DC permitiram o teste de carros autônomos em vias públicas, e em 2017, Waymo (uma empresa irmã do Google) anunciou que havia começado a testar carros sem motorista pessoa na posição do motorista (mas ainda em algum lugar dentro do carro). A maioria dos softwares autônomos de direção é baseada em aprendizado supervisionado e técnicas de aprendizado por reforço, além de visão computacional e processamento de imagens.

Deep Patient fornece melhores resultados que psiquiatras

Em 2015, um grupo de pesquisa liderou Joel Dudley no Mount Sinai Hospital, em Nova York, criou uma rede de Deep Learning não supervisionada de três camadas chamada Deep Patient. Pesquisadores forneceram dados do Deep Patient, valendo centenas de variáveis ​​(por exemplo, histórico médico, resultados de testes, consultas médicas, medicamentos prescritos) para cerca de 700.000 pacientes. O sistema não era supervisionado e, no entanto, foi capaz de descobrir padrões nos dados do hospital que indicavam quem provavelmente teria câncer de fígado em breve. Um aspecto mais interessante foi que ele poderia antecipar em grande parte o aparecimento de transtornos psiquiátricos como a esquizofrenia. Como a esquizofrenia é notoriamente difícil de prever, mesmo para os psiquiatras, Dudley comentou: “Podemos construir esses modelos, mas não sabemos como funcionam”.

Robôs melhorados e Chatbots

Os chatbots comerciais começaram com o Siri, que foi desenvolvido pelo Centro de Inteligência Artificial da SRI. Seu mecanismo de reconhecimento de fala foi posteriormente fornecido pela Nuance Communications e lançado como um aplicativo em iPhones da Apple em fevereiro de 2010. Outros chatbots comerciais desenvolvidos durante 2011-17 incluem a Microsoft Cortana, Xbox, Skype Translator, Amazon’s Alexa, Google’s Now e Allo. , Pesquisa de voz Baidu e iFlyTek e produtos baseados em voz da Nuance. Os três robôs humanoides seguintes são particularmente interessantes e existem vários outros em produção ou vendidos, por exemplo, Milo, Ekso GT, Deka e Moley:

  • Asimo tem proficiência na língua de sinais americana e japonesa, reconhece rostos humanos, sobe escadas, salta, salta, equilibra-se em um pé e transita sem problemas entre andar e correr;
  • A Pepper pretende “tornar as pessoas felizes”, melhorar a vida das pessoas, facilitar os relacionamentos, divertir-se com as pessoas e conectá-las ao resto do mundo, e
  • O Spotmini pode empilhar pratos na lava-louças.

A maioria desses robôs usa sofisticada engenharia de controle, visão computacional e redes de deep learning (especificamente Long-Short Term Memory), mas, de modo geral, o diálogo do chatbot ainda está longe do diálogo humano e não há referências aceitas para compará-los.

Automação Robótica de Processos baseada em IA

A Automação Robótica de Proessos (RPA) é configurado para executar etapas que são seguidas por um usuário humano durante uma tarefa específica; essa configuração é obtida usando etapas demonstrativas, em vez de codificá-la em uma linguagem de computador. O objetivo da RPA é fornecer um robô software que seja um trabalhador virtual que possa ser rapidamente “treinado” ou configurado por um usuário corporativo de maneira intuitiva, o que é como treinar um novo usuário humano por um colega experiente. Embora as raízes deste software remontem aos anos 80, os profissionais começaram a usá-lo de uma maneira grande apenas por volta de 2010. Por si só, o software RPA tem várias desvantagens, por exemplo:

  • A instalação desses robôs é mais complexa e demorada do que normalmente parece;
  • As plataformas nas quais os robôs trabalham normalmente mudam, o que aumenta a complexidade;
  • Mudanças devido a regulamentações ou ambiente de negócios podem forçar a reconfiguração desse software;
  • Como o software RPA não é Open Source, a interoperabilidade entre os softwares de diferentes provedores pode ser um desafio; e
  • Os resultados econômicos muitas vezes não são tão bons, porque geralmente há muitos pontos problemáticos em um processo de negócios e o manuseio de todos eles por meio do RPA pode ser uma tarefa gigantesca.

Para superar a maioria dessas desvantagens, durante os últimos dois anos, a RPA foi combinada com sistemas de machine learning e processamento de linguagem natural para construir sistemas de automação mais holísticos.

Razões para o crescimento explosivo em sistemas de IA

As principais razões para esse hiper-crescimento incluem os efeitos da lei de Moore, computação paralela e distribuída, software de código aberto, disponibilidade de Big Data, crescente colaboração entre a academia e a indústria e a quantidade de pesquisas que estão sendo feitas em Inteligência Artificial.

Lei de Moore

Em 1965, Moore observou que o número de transistores em um circuito eletrônico dobra aproximadamente a cada ano e previu que essa taxa de crescimento continuaria por uma década. Em 1975, ele revisou sua previsão para dobrar a cada dois anos.

O aumento exponencial do poder de computação, bem como a redução no tamanho e custo, teve o maior efeito no campo da IA

É importante notar que a lei de Moore não é realmente uma lei, mas um conjunto de observações feitas pelo Dr. Gordon Moore, que foi o fundador da Intel Corporation. De fato, em 2015, o próprio Moore disse: “Eu vejo a lei de Moore morrer aqui na próxima década”, o que não é surpreendente, já que o tamanho dos transistores de hoje pode ser reduzido em até um fator de 4.900 antes de alcançar o limite teórico de um átomo de silício, que também fornece uma limitação no tamanho e na velocidade de um perceptron. No entanto, este aumento exponencial do poder de computação, bem como a redução no tamanho e custo, teve o maior efeito no campo da IA.

Computação Paralela e Distribuída

A maioria dos algoritmos de IA exige enorme poder de computação e, em 2004, a computação paralela e distribuída tornou-se prática. Como a comunicação eletrônica, o armazenamento e a computação se tornaram baratos, muitas empresas (por exemplo, Amazon, Microsoft, IBM, Google) estão vendendo processamento computacional por hora ou até mesmo a cada minuto, o que ajuda pesquisadores e profissionais a explorar paralelamente e distribui computação enormemente e executa seus algoritmos em vários milhares de computadores simultaneamente (usando Hadoop, Spark e frameworks relacionados).

Disponibilidade de Big Data

Algoritmos de aprendizado de máquina, especialmente algoritmos de aprendizagem profunda, requerem uma enorme quantidade de dados. Por exemplo, uma rede neural supervisionada com 50 atributos de entrada (ou variáveis) e um perceptron de saída e com três camadas ocultas contendo 50 perceptrons cada, possui 10.050 conexões, e essa rede pode exigir cem mil ou mais pontos de dados rotulados para treinamento, pois precisa ser otimizado. Felizmente, a conectividade de rede e hardware de baixo custo e fácil acesso permitiu que os humanos produzissem mais de 8 quatrilhões de Gigabytes (isto é, 8 zetta bytes) de dados até 2017. Muitos pesquisadores e desenvolvedores começaram a usar dados disponíveis gratuitamente para criar bancos de dados “abertos” para problemas específicos e iniciaram o “crowdsourcing” para rotular esses dados. O MNIST foi o primeiro banco de dados criado em 1998 e o ImageNet foi o maior criado em 2011. O ImageNet contém mais de 14 milhões de URLs de imagens, das quais mais de 10 milhões foram rotulados à mão para indicar o que representam.

Software de código aberto disponível

O software de código aberto permite que os usuários executem, modifiquem e redistribuam suas cópias com ou sem alterações. Richard Stallman, professor da Carnegie Mellon University, lançou a Free Software Foundation em 1985. Em 2002, o Torch foi o primeiro software de machine learning, mas desde então muitos outros (por exemplo, Caffe, Theano, Keras, MXNet, DeepLearning4J, Tensorflow) foi introduzido. Isso permitiu que pesquisadores e profissionais experimentassem imensamente o software de código aberto e construíssem novos algoritmos, que, se bem-sucedidos, muitas vezes também se tornam open source.

Crescimento em pesquisa e desenvolvimento

De acordo com nossas estimativas, desde 1950, mais de 200.000 artigos de pesquisa foram escritos em IA e seus subcampos. Destes, mais de 125.000 foram publicados apenas no período de 2008-2017. Da mesma forma, tem havido um tremendo crescimento na colaboração indústria-academia desde 2008, o que está levando a um crescimento acelerado na construção de novas soluções de inteligência artificial.

Conclusão

“A história não se repete, mas muitas vezes rima”, é uma citação atribuída a Mark Twain e parece ser verdade em IA com a enorme empolgação que ocorreu nos anos 50 e novamente nos últimos sete anos. Em ambos os casos, os pesquisadores ficaram extremamente entusiasmados com a esperança de criar rapidamente máquinas de IA capazes de imitar os humanos, e em ambos os casos isso levou a um crescimento em pesquisa e desenvolvimento de IA.

Durante as décadas de 1950 e 1960, pesquisas seminais foram feitas em IA e muitos de seus subcampos nasceram, enquanto que, na fase atual, engenharia poderosa e tediosa, bem como computação barata e abundante levou a mais de 20 sistemas de IA que rivalizam ou vencem humanos. E assim como as décadas de 1950 e 1960, isso mais uma vez criou euforia entre pesquisadores, desenvolvedores, profissionais, investidores e o público, que por sua vez iniciou um novo ciclo de hype.

Sistemas de Inteligência Artificial que já superam os humanos
5 (100%) 1 vote

Artigos relacionados

Inteligência Artificial e a Ascensão dos Seres Humanos Usando AI para tornar as pessoas mais inteligentes Com os avanços na inteligência artificial impactando todos os setores, desde a saúde até o varejo,...
Inteligência artificial elucida a causa raiz da violência religiosa A inteligência artificial pode nos ajudar a entender as causas da violência religiosa e controlá-la, de acordo com uma nova colaboração da Universidad...
Cientistas usam redes neurais para prever a estabilidade de materiais Redes neurais artificiais - algoritmos inspirados por conexões no cérebro - "aprenderam" a realizar uma variedade de tarefas, desde a detecção de pede...
Automação Robótica de Processos e Inteligência Artificial – Ótimas sozinha... Atualmente, há muita empolgação em torno do enorme potencial de automação nas empresas, particularmente no que diz respeito à Automação Robótica de Pr...