mundo orientado a máquinas melhor que humanos

Um mundo orientado a máquinas é melhor que um mundo orientado a humanos?


Do lado positivo das máquinas, temos uma perspectiva de carros autônomos e outros benefícios, e através da educação, os humanos podem evoluir e melhorar. Os riscos incluem perda de empregos, crescente desigualdade, lidar com a superinteligência.

Falei recentemente em um painel na Cúpula Mundial do Governo em Dubai e também participei da Mesa Redonda AI organizada pela sociedade de IA ​​na escola de governo de Harvard Kennedy.

O tópico discutido foi “O mundo das máquinas é melhor? (parte da discussão dos Brave Conversations) ”. Eu estava do lado das máquinas. Não é um debate fácil – alguém se referiu a nós como a “equipe do mal”!

Depois do painel, compartilhei meus pensamentos com Gregory Piatetsky Shapiro. Gregory me motivou a considerar também a perspectiva contrária, ou seja, os riscos de um mundo impulsionado pela IA. Então, neste blog, decidi aceitar o desafio de analisar a questão de ambos os lados.

Note que estas são minhas visões pessoais. Não é baseado no painel de discussão.

Há muito interesse em IA em Dubai – os Emirados Árabes Unidos têm um ministério para IA e a discussão na Cúpula foi de uma qualidade muito alta. Aqui está o resumo da minha palestra de abertura de cinco minutos sobre o assunto a respeito de porque um mundo dirigido por máquinas é melhor.

Por que um mundo orientado por máquinas é melhor que um mundo impulsionado por humanos?

Você acha que devemos proibir carros autônomos?

Se você não pensa assim (e ninguém o fez), então o debate acabou. Porque acreditamos implicitamente que um mundo impulsionado por máquinas é melhor. Nós confiamos em nossas vidas nisso. Confiamos na vida de nossos filhos com carros autônomos.

Mas então poderíamos perguntar:

Achamos que um mundo em que a inteligência artificial é dramaticamente mais inteligente que os humanos seria um lugar melhor?

Eu ainda acho que sim.

Os seres humanos também evoluirão mais rapidamente para enfrentar a ameaça

E eu tenho mais fé na evolução da inteligência humana. Por quê? Ironicamente por causa dos robôs. Existe um precedente para isso.

Em tempos de ameaça, os seres humanos evoluíram rapidamente – por exemplo, para desenvolver cérebros maiores e mais complexos em resposta a mudanças climáticas – como as mudanças climáticas podem ter moldado a evolução humana.

Mas como você pode garantir que os humanos evoluirão mais rapidamente?

Através da educação.

Em vez dos antigos 3Rs (Reading, WRiting e ARithmetic), precisamos de um novo conjunto de 3 Rs (alfabetização em IA, alfabetização de dados, alfabetização humana) (adaptado do livro Robot Proof de Joseph Aoun que listou Literacia tecnológica, Alfabetização de dados e Humano).

Ok, então vamos dar um passo adiante.

Como podemos prosperar neste mundo dominado pela IA?

A maioria das pessoas não percebe plenamente as oportunidades apresentadas pela IA – tanto para as pessoas quanto para os países.

Existem três razões pelas quais a IA é tão perturbadora hoje em dia. Primeiro, a IA está rapidamente se tornando valiosa como uma habilidade. Em segundo lugar, a IA está “roubando” muitas funções. Os dois primeiros são fáceis para as pessoas entenderem intuitivamente. O terceiro é PI (Propriedade Intelectual). AI é uma das poucas PI defensáveis ​​e esta é uma oportunidade para indivíduos e governos. Em todo o mundo, esse pool de talentos de IA é estimado em apenas 22.000 pessoas.

Então, precisamos substituir o medo da IA ​​por uma curiosidade pela IA.

E quanto tempo nós temos?

De acordo com um dos livros de maior autoridade sobre IA, de Goodfellow e Bengio, temos atualmente a capacidade de modelar o cérebro de um gato. Se extrapolarmos as tendências atuais – espera-se que possamos ser modelo de um cérebro humano até 2056. Nesse momento, temos que começar a pensar em definições de robótica de Asimov.

Então, para recapitular porque um mundo orientado a máquinas seria melhor que um mundo orientado por humanos

  • Se você aceita carros autônomos, já aceitou um mundo guiado por máquinas
  • Os humanos evoluirão e farão isso rapidamente, então não é uma dicotomia
  • Nós podemos garantir nossa evolução através da educação
  • Como podemos prosperar neste mundo? Olhe para as oportunidades. Vá do medo para a curiosidade
  • Quanto tempo nós temos? Até 2056

Agora vamos mudar a perspectiva.

Então, aqui estão meus pensamentos argumentando pela perspectiva oposta.

Quais são os riscos de um mundo orientado a máquinas?

Vamos começar com Alvin Toffler, que é amplamente considerado um dos pensadores mais influentes. Em seu livro de 1970, Futuro Choque, ele define um termo chamado “choque futuro” como um certo estado psicológico de indivíduos e sociedades inteiras devido a “muita mudança em um período de tempo muito curto”. Toffler previu muitas coisas com precisão, incluindo a sociedade pós-industrial na década de 1970 (ou seja, pré Internet). Mas nem mesmo ele havia contabilizado o impacto da IA! O principal pensamento de Alvin Toffler consiste no fato de que o homem moderno sente-se chocado por mudanças rápidas. Assim, o maior impacto da IA, conforme vejo, é que a taxa de mudança aumentará dramaticamente. Estamos, então, em risco de viver em um futuro choque 2.0.

Existem três maneiras pelas quais essa taxa de mudança rápida induzida pela IA pode nos impactar diretamente

  • Perda de empregos
  • Desigualdade e perda de renda
  • Lidando com Super Inteligência
  • Há também um quarto – Lidando com IA Emocional e Geral

Perda de empregos

Perda de empregos devido à IA é mais fácil para nós entendermos porque já estamos experimentando isso.

Gartner diz que até 2020, inteligência artificial irá criar mais empregos do que elimina. A IA criará 2,3 milhões de empregos em 2020, enquanto elimina 1,8 milhão. Mas a questão é: os trabalhos que são eliminados serão muito diferentes dos trabalhos criados. A Fukoku Mutual, uma empresa de seguros no Japão, está substituindo 34 avaliadores de sinistros por IA.

A IA demonstrou estar economizando custos de US $ 1,2 milhão (140 milhões de ienes) em salários anualmente. Os setores que mostram o maior desdobramento da IA, como serviços bancários e financeiros, também serão o “ponto zero” das perdas de empregos na AI (o CEO do Deutsche Bank, John Cryan, previu uma “fogueira de empregos industriais” e ele pode estar certo). Para muitas empresas e países – os riscos de não participar da IA ​​são piores.

Por exemplo, um recente relatório do governo australiano sobre a IA diz que:

“A Austrália deve dobrar seu ritmo de inteligência artificial e automação robótica para colher uma oportunidade de US $ 2,2 trilhões até 2030, enquanto também se prepara urgentemente para apoiar mais de 3 milhões de trabalhadores cujos empregos podem estar em risco”

Perda de renda e desigualdade de renda

Relacionado à perda de empregos está a perda de renda e desigualdade de renda. Yuval Harari descreve esse risco da melhor maneira possível no artigo. Estamos prestes a testemunhar as sociedades mais desiguais da história?

Corremos o risco de criar duas classes de pessoas: “super-humanos” e uma enorme subclasse de pessoas “inúteis”. Uma vez que as massas perdem seu poder econômico e político, os níveis de desigualdade podem espiralar de forma alarmante. À medida que alguns grupos monopolizam cada vez mais os frutos da globalização, bilhões são deixados para trás.

Nos tempos feudais, a hierarquia era aceita como a norma – reforçada (ou mesmo encorajada) pelas divisões de classe e religião. Nos tempos modernos – tanto o capitalismo de livre mercado quanto o socialismo tentaram equilibrar isso criando um senso de igualdade. Embora o socialismo e o capitalismo não fossem perfeitos, era importante perceber que as massas eram importantes para ambos. Mas a IA torna as massas redundantes – sejam elas soldados ou trabalhadores.

Uma vez que a inteligência artificial é mais inteligente que a elite humana, toda a humanidade pode se tornar redundante.

Lidando com Superinteligência

Isso nos leva então à questão da super-intensidade e como lidamos com a superinteligência. Dependendo de com quem você fala … Espera-se que em 2050, com base na discussão anterior, possamos modelar o cérebro de um ser humano.

Em seu bem conhecido livro – Superinteligência, Nick Bostrom argumenta que, se os cérebros das máquinas ultrapassam os cérebros humanos na inteligência geral, então esta nova superinteligência poderia substituir os humanos como a forma de vida dominante na Terra. Máquinas suficientemente inteligentes poderiam melhorar suas próprias capacidades mais rapidamente que os cientistas humanos da computação e o resultado poderia ser uma catástrofe existencial para os humanos. Tanto Elon Musk quanto Bill Gates baseiam sua preocupação nessa ideia. As implicações da introdução de uma segunda espécie inteligente na Terra são de longo alcance e difíceis de prever. Essa realidade também pode acontecer mais cedo do que tarde. Na minha opinião, ainda precisaríamos passar de 2050, ou seja, modelar o cérebro humano – mas em termos reais – essa data não está longe.

Lidando com IA emocional e geral

Nas minhas discussões com colegas (Sophie Maclaren – Said Business School) e outros colegas da Universidade de Oxford durante o jantar à noite – pensei em um quarto risco. No geral, atualmente não estamos discutindo IA Geral, ou seja, não estamos falando de sistemas autoconscientes ou conscientes. Mas o trabalho do falecido Marvin Minsky aponta para o impacto das Emoções e da IA. Em seu livro, o Emotion Machine, Minsky acreditava que não há diferença fundamental entre humanos e máquinas, e que os humanos são máquinas cuja “inteligência” emerge da interação de muitos agentes não-inteligentes mas semi-autônomos que compõem o cérebro.

O principal argumento de Minsky é que as emoções são “maneiras de pensar” para diferentes “tipos de problemas” que existem no mundo, e que o cérebro tem mecanismos baseados em regras (seletores) que ativam as emoções para lidar com vários problemas. Essa ideia também é explorada pelo livro de Ray Kurzweil, How to create a mind.

Uma máquina emocional pode não ser uma ameaça em si, já que poderia aprender empatia. No entanto, envolver-se com uma máquina emocional pode ser uma situação imprevisível – e, portanto, um risco potencial.

Ajit Jaokar é cientista de dados e leciona o curso de Ciência de Dados para Internet das Coisas na Universidade de Oxford. O blog representa suas opiniões pessoais. Ajit participou da Cúpula Mundial do Governo em Dubai e também participou da Mesa Redonda de IA organizada pela sociedade de IA – Harvard Kennedy School.

Via KDnuggets

Um mundo orientado a máquinas é melhor que um mundo orientado a humanos?
5 (100%) 1 vote

Artigos relacionados

Machine Learning permite métricas inspiradas na física para analisar a arte Uma pesquisa internacional colaborativa relata que uma análise sistematizada de Machine Learning de obras de arte produzidas ao longo do último milêni...
O que é Processamento de Linguagem Natural (PLN) Processamento de linguagem natural (PLN) é a capacidade de um programa de computador para entender a linguagem humana como ela é falada. O PLN é um co...
Machine learning pode prever respostas de medicação em pacientes com transtorno ... Pesquisadores desenvolveram um novo algoritmo de machine learning que é 94% preciso na previsão de quais pacientes com transtorno bipolar e outros tra...
Computação cognitiva: o que é e como funciona? Os sistemas de computação cognitiva usam modelos computadorizados para simular o processo de cognição humana para encontrar soluções em situações comp...