Inteligência Artificial (AI): Benefícios & Riscos

“Tudo o que adoramos sobre a civilização é um produto da inteligência, de modo que amplificar a nossa inteligência humana com Inteligência Artificial tem o potencial de ajudar a civilização a florescer como jamais antes – enquanto conseguimos manter a tecnologia benéfica”.

Max Tegmark, presidente do Instituto do Futuro da Vida

O QUE É IA – Inteligência Artificial ?
Do SIRI aos carros auto-dirigidos, a Inteligência Artificial (IA) está progredindo rapidamente. Enquanto a ficção científica retrata frequentemente a IA como robôs com características humanas, a IA pode abranger qualquer coisa, desde algoritmos de pesquisa do Google até o Watson da IBM para armas autônomas.

A Inteligência Artificial hoje é conhecida como IA (ou IA fraca), na medida em que é projetada para executar uma tarefa estreita (por exemplo, apenas reconhecimento facial ou apenas pesquisas na Internet ou apenas a conduzir um carro). No entanto, o objetivo a longo prazo de muitos pesquisadores é criar IA geral (AGI ou IA forte). Enquanto a IA estreita pode superar os seres humanos em qualquer tarefa específica, como jogar xadrez ou resolver equações, a AGI superaria os humanos em quase todas as tarefas cognitivas.

POR QUE PESQUISAR A SEGURANÇA NA IA?
No curto prazo, o objetivo de manter o impacto da IA na sociedade é benéfico, motivando a pesquisa em muitas áreas, da economia e da lei a tópicos técnicos, como verificação, validade, segurança e controle. Considerando que pode ser pouco mais do que um pequeno incômodo se seu portátil falhar ou for pirateado, torna-se ainda mais importante que um sistema de IA faça o que você quer que ele faça se controla seu carro, seu avião, sue sistema de negociação automática ou sua rede elétrica. Outro desafio a curto prazo está em impedir uma devastadora corrida armamentista em armas autônomas letais.

A longo prazo, uma questão importante é o que acontecerá se a busca de IA forte for bem-sucedida e um sistema de IA se tornar melhor do que os humanos em todas as tarefas cognitivas. Como apontado por I.J. Bom, em 1965, desenhar sistemas de IA inteligentes é em si uma tarefa cognitiva. Esse sistema poderia sofrer um auto-aperfeiçoamento recursivo, provocando uma explosão de inteligência deixando o intelecto humano muito para trás. Ao inventar novas tecnologias revolucionárias, essa superinteligência pode nos ajudar a erradicar a guerra, a doença e a pobreza e, portanto, a criação de IA forte pode ser o maior evento da história humana. Alguns especialistas expressaram preocupação, no entanto, que também pode ser o último, a menos que aprendamos a alinhar os objetivos da IA com o nosso antes de se tornar superinteligente.

Há alguns que questionam se a IA forte será alcançada, e outros que insistem em que a criação de inteligência superintelligente tem a certeza de ser benéfica. Na FLI, reconhecemos essas duas possibilidades, mas também reconhecemos o potencial de um sistema de inteligência artificial de forma intencional ou involuntária para causar grandes danos. Acreditamos que a pesquisa hoje nos ajudará a nos preparar e prevenir tais conseqüências potencialmente negativas no futuro, aproveitando assim os benefícios da IA, evitando armadilhas.

COMO PODE SER A IA PERIGOSA?
A maioria dos pesquisadores concorda que uma IA superinteligente é improvável que exiba emoções humanas como o amor ou o ódio, e que não há motivos para esperar que a IA se torne intencionalmente benevolente ou malévola. Em vez disso, ao considerar como a IA pode se tornar um risco, os especialistas acham que dois cenários são muito prováveis:

1. A IA está programada para fazer algo devastador: armas autônomas são sistemas de inteligência artificial programados para matar. Nas mãos da pessoa errada, essas armas poderiam facilmente causar mortes em massa. Além disso, uma corrida armamentista de IA poderia, inadvertidamente, levar a uma guerra da IA que também resulte em mortes em massa. Para evitar ser frustrado pelo inimigo, essas armas seriam concebidas para serem extremamente difíceis de simplesmente “desligar”, pelo que os humanos possan perder o controle de tal situação de forma plausível. Esse risco é um que está presente mesmo com IA estreita, mas cresce à medida que os níveis de inteligência e autonomia de IA aumentam.

2. A IA é programada para fazer algo benéfico, mas desenvolve um método destrutivo para alcançar seu objetivo: isso pode acontecer sempre que não conseguimos alinhar completamente os objetivos da IA com os nossos, o que é surpreendentemente difícil. Se você pede um carro inteligente obediente para levá-lo ao aeroporto o mais rápido possível, pode levá-lo perseguido por helicópteros e coberto de vômito, não fazendo o que você queria, mas literalmente, o que você pediu. Se um sistema superinteligente é encarregado de um ambicioso projeto de geoengenharia, isso pode causar estragos com o nosso ecossistema como efeito colateral e ver as tentativas humanas para detê-lo como uma ameaça.

Como estes exemplos ilustram, a preocupação com a IA avançada não é a malevolência, mas competência. Uma IA super inteligente é extremamente bom para atingir seus objetivos, e se esses objetivos não estão alinhados com os nossos, temos um problema. Você provavelmente não é um detestor de formigas que pisa as formigas por malícia, mas se você é responsável por um projeto de energia verde hidrelétrica e há um formigueiro na região a ser inundado, muito ruim para as formigas. Um dos principais objetivos da pesquisa de segurança da IA é nunca colocar a humanidade na posição dessas formigas.

PORQUE O INTERESSE RECENTE NA SEGURANÇA DA IA
Stephen Hawking, Elon Musk, Steve Wozniak, Bill Gates e muitos outros grandes nomes da ciência e da tecnologia expressaram recentemente sua preocupação na mídia e através de cartas abertas sobre os riscos colocados pela IA, acompanhados por muitos pesquisadores líderes de IA. Por que o assunto está de repente nas prioridades?

A ideia de que a busca pela IA forte seria, em última instância, bem sucedida, é há muito pensado como ficção científica, séculos ou há mais tempo. No entanto, graças aos avanços recentes, muitos marcos da IA, que os especialistas viram como décadas de distância apenas cinco anos atrás, foram alcançados, fazendo com que muitos especialistas tomassem a sério a possibilidade de superinteligência em nossa vida. Embora alguns especialistas ainda adivinem que a IA de nível humano está a séculos de distância, a maioria das pesquisas da IA na Conferência de Porto Rico de 2015 imaginaram que isso aconteceria antes de 2060. Uma vez que pode levar décadas para completar a pesquisa de segurança requerida, é prudente iniciá-la agora .

Como a IA tem o potencial de se tornar mais inteligente do que qualquer humano, não temos nenhuma maneira segura de prever como ela se comportará. Nós não podemos usar os desenvolvimentos tecnológicos passados como uma base porque nunca criamos nada que tenha a capacidade, de forma consciente ou involuntária, de nos ajudar. O melhor exemplo do que poderíamos enfrentar pode ser a nossa própria evolução. As pessoas agora controlam o planeta, não porque somos os mais fortes, mais rápidos ou maiores, mas porque somos os mais inteligentes. Se não somos mais inteligentes, estamos seguros de permanecer no controle?

A posição da FLI é que nossa civilização florescerá enquanto ganharmos a corrida entre o poder crescente da tecnologia e a sabedoria com a qual a gerimos. No caso da tecnologia IA, a posição da FLI é que a melhor maneira de ganhar essa raça não é impedir o primeiro, mas acelerar o último, apoiando a pesquisa de segurança da IA.

OS MITOS SUPERIORES SOBRE IA AVANÇADA

Uma conversa cativante está ocorrendo sobre o futuro da inteligência artificial e sobre o que ela deve significar para a humanidade. Há controvérsias fascinantes em que os principais especialistas mundiais discordam, como: o impacto futuro da IA no mercado de trabalho; se/quando a IA de nível humano será desenvolvida; se isso levará a uma explosão de inteligência; e se isso é algo que devemos acolher ou temer. Mas também há muitos exemplos de pseudo-controvérsias chatas causadas por maldades e falas de pessoas entre si. Para nos ajudar a concentrar-nos nas controvérsias interessantes e nas questões abertas – e não nos mal-entendidos – vamos esclarecer alguns dos mitos mais comuns.

MITO DA LINHA DO TEMPO
O primeiro mito considera a linha do tempo: quanto tempo demorará até que as máquinas superem a inteligência a nível humano? Um equívoco comum é que nós sabemos a resposta com grande certeza.

Um mito popular é que sabemos que teremos Inteligência Artificia IA super-humana neste século. Na verdade, a história está cheia de excesso de tecnologia. Onde estão essas plantas de energia de fusão e carros voadores que nos prometeram que teriamos até agora? A IA também foi repetidamente superestimada no passado, mesmo por alguns dos fundadores do campo. Por exemplo, John McCarthy (que inventou o termo “inteligência artificial”), Marvin Minsky, Nathaniel Rochester e Claude Shannon escreveram esta previsão excessivamente otimista sobre o que poderia ser realizado durante dois meses com computadores de idade da pedra: “Nós propomos que um estudo de 2 meses e 10 homens sobre inteligência artificial seja realizado durante o verão de 1956 no Dartmouth College […] Será feita uma tentativa de descobrir como fazer que as máquinas usem linguagem, formar abstrações e conceitos, resolver tipos de problemas agora reservados para humanos, e melhorar a si mesmos. Nós pensamos que se pode fazer um avanço significativo em um ou mais desses problemas se um grupo de cientistas cuidadosamente selecionado trabalhar nisso juntos por um verão “.

Por outro lado, um contra-mito popular é que sabemos que não conseguiremos IA super-humana neste século. Os pesquisadores fizeram um amplo leque de estimativas para o quão longe estamos da IA super-humana, mas certamente não podemos dizer com grande confiança que a probabilidade é zero neste século, dado o triste histórico de tais previsões tecno-cético. Por exemplo, Ernest Rutherford, indiscutivelmente o maior físico nuclear de sua época, disse em 1933 – menos de 24 horas antes da invenção de Szilard da reação em cadeia nuclear – que a energia nuclear era “brilho da lua”. E o astrónomo Royal Richard Woolley chamou a viagem interplanetária de “esgoto total” em 1956. A forma mais extrema deste mito é que a IA sobrehumana nunca chegará porque é fisicamente impossível. No entanto, os físicos sabem que um cérebro consiste em quarks e elétrons dispostos a atuar como um computador poderoso e que não há lei de física que nos impeça de construir bolhas de quark ainda mais inteligentes.

Houve uma série de pesquisas perguntando aos pesquisadores da IA de aqui a quantos anos eles pensam que teremos AI de nível humano com pelo menos 50% de probabilidade. Todas essas pesquisas têm a mesma conclusão: os principais especialistas mundiais discordam, então simplesmente não sabemos. Por exemplo, em tal pesquisa dos investigadores da IA na conferência 2015 Puerto Rico IA, a resposta média (mediana) foi até o ano 2045, mas alguns pesquisadores pensaram centenas de anos ou mais.

Há também um mito relacionado que as pessoas que se preocupam com a IA pensam que ha apenas alguns anos de distância. Na verdade, a maioria das pessoas estão preocupados com a IA super-humana acham que ainda há pelo menos décadas. Mas eles argumentam que, enquanto não tivermos certeza de que isso não acontecerá neste século, é inteligente começar a pesquisa da segurança agora para se preparem para a eventualidade. Muitos dos problemas de segurança associados à IA de nível humano são tão difíceis que podem levar décadas para resolver. Por isso, é prudente começar a pesquisá-los agora, em vez da noite anterior a alguns programadores que bebem Red Bull decide trocar um.

MITOS DE CONTROVÉRSIA
Outro equívoco comum é que as únicas pessoas que suscitam preocupações com a IA e defendendo a pesquisa de segurança da IA são luditas que não sabem muito sobre a IA. Quando Stuart Russell, autor do livro de texto padrão da IA, mencionou isso durante sua conversa em Porto Rico, o público riu alto. Um equívoco relacionado é que o apoio à pesquisa de segurança da IA é extremamente controverso. De fato, para apoiar um investimento modesto na pesquisa de segurança da IA, as pessoas não precisam estar convencidas de que os riscos são elevados, meramente não negligenciáveis – apenas como um investimento modesto no seguro da casa é justificado por uma probabilidade não negligenciável de que a casa arda.

Pode ser que a mídia tenha feito o debate de segurança da IA parecer mais controverso do que realmente é. Afinal, o medo é vendido, e os artigos que utilizam citações fora do contexto para proclamar uma destruição iminente podem gerar mais cliques do que as nuances e equilibrados. Como resultado, duas pessoas que apenas conhecem as posições de cada uma das citações da mídia tendem a pensar que eles discordam mais do que eles realmente fazem. Por exemplo, um tectoecéptico que só leu sobre a posição de Bill Gates em um tablóide britânico pode pensar erroneamente que Gates acredita que a superinteligência seja iminente. Da mesma forma, alguém no movimento de pro-IA que não sabe nada sobre a posição de Andrew Ng, exceto que sua citação sobre a superpopulação em Marte pode pensar erroneamente que ele não se preocupa com a segurança da IA, enquanto na verdade ele faz. O ponto crucial é simplesmente porque as estimativas da linha de tempo de Ng são mais longas, ele naturalmente tende a priorizar os desafios da IA de curto prazo em relação a longo prazo.

MITOS SOBRE OS RISCOS DA IA SUPERHUMANA
Muitos pesquisadores da Inteligência Artificia (lA) reviram os olhos quando vêem esta citação: “Stephen Hawking adverte que o aumento de robôs pode ser desastroso para a humanidade”. E como muitos, perderam a conta de quantos artigos similares viram. Normalmente, esses artigos são acompanhados por um robô malvado carregando uma arma, e eles sugerem que devemos nos preocupar com os robôs se erguendo e nos matando porque se tornaram conscientes e/ou malignos. Em uma nota mais leve, esses artigos são realmente bastante impressionantes, porque resumem sucintamente o cenário que os pesquisadores da IA não se preocupam. Esse cenário combina até três equívocos separados: preocupação com consciência, maldade e robôs.

Quando você conduz, você tem uma experiência subjetiva das cores, sons, etc. Mas tem um carro auto-dirigido uma experiência subjetiva? Será que se sente alguma coisa num carro auto-dirigido? Embora este mistério da consciência seja interessante por direito próprio, é irrelevante para o risco de IA. Se você for atingido por um carro sem motorista, não faz diferença para você se sente subjetivamente consciente. Do mesmo modo, o que nos afetará a nós humanos, é o que a IA superinteligente faz, e não aquilo que sente subjetivamente.

O medo das máquinas que se tornam malvadas é outro arenque vermelho. A verdadeira preocupação não é a maldade, mas a competência. Uma IA superintelligente é, por definição, muito bom para alcançar seus objetivos, seja lá o que for, então precisamos garantir que seus objetivos estejam alinhados com os nossos. Os seres humanos geralmente não odeiam as formigas, mas somos mais inteligentes do que elas – então, se queremos construir uma barragem hidrelétrica e há um formigueiro lá, é muito ruim para as formigas. O movimento pro-IA quer evitar colocar a humanidade na posição dessas formigas.

O equívoco da consciência está relacionado ao mito de que as máquinas não podem ter metas. As máquinas podem, obviamente, ter metas no sentido estrito de exibir um comportamento orientado a objetivos: o comportamento de um míssil de busca de calor se explica economicamente como um objetivo para atingir um alvo. Se você se sente ameaçado por uma máquina cujos objetivos estão desalinhados com os seus, então é precisamente seus objetivos nesse sentido estrito que o incomoda, não se a máquina é consciente e experimenta um senso de propósito. Se esse míssil que procura calor o perseguisse, você provavelmente não exclamaria: “Eu não estou preocupado, porque as máquinas não podem ter metas!”

Eu simpatizo com Rodney Brooks e outros pioneiros da robótica que se sentem injustamente demonizados por tablóides assustadores, porque alguns jornalistas parecem obsessivamente concentrados nos robôs e adornam muitos dos seus artigos com monstros de metal malvados com olhos vermelhos brilhantes. Na verdade, a principal preocupação do movimento pro-IA não é com os robôs, mas com a própria inteligência: especificamente, inteligência cujos objetivos estão desalinhados com os nossos. Para nos causar problemas, tal inteligência super-humana desalinhada não precisa de nenhum corpo robótico, apenas uma conexão com a internet – isso pode permitir superar mercados financeiros, inventar pesquisadores humanos, manipular liders humanos e desenvolver armas que nem sequer podemos entender. Mesmo que os robôs de construção fossem fisicamente impossíveis, uma IA super inteligente e super-rica poderia facilmente pagar ou manipular muitos humanos para fazer sua lição sem querer.

O equívoco do robô está relacionado ao mito de que as máquinas não podem controlar os seres humanos. A Inteligência possibilita o controle: os humanos controlam os tigres não porque somos mais fortes, mas porque somos mais inteligentes. Isso significa que, se cedemos a nossa posição como mais inteligente no nosso planeta, é possível que possamos também ceder o controle.

AS CONTROVERSIAS INTERESSANTES

Não perder tempo nos equívocos acima mencionados nos permite focar em controvérsias verdadeiras e interessantes onde até mesmo os especialistas discordam. Que tipo de futuro você quer? Devemos desenvolver armas autônomas letais? O que você gostaria que acontecesse com a automação do trabalho? Que conselho de carreira você daria aos meninos de hoje? Você prefere novos empregos que substituam os antigos, ou uma sociedade desempregada onde todos desfrutam de uma vida de lazer e riqueza produzida por máquinas? Mais adiante, você gostaria que criássemos uma vida superintelligente e a espalhássemos pelo nosso cosmos? Vamos controlar máquinas inteligentes ou elas nos controlarão? As máquinas inteligentes nos substituirão, convivirão com nós ou se juntarão conosco? O que significará ser humano na era da inteligência artificial? O que você quer que isso signifique, e como podemos tornar o futuro dessa forma? Junte-se à conversa!

REFERÊNCIAS RECOMENDADAS

 

Sobre o autor

Sara Filipa







por: Sara Filipa

Posts recentes

Comentários

Arquivos

Categorias

Meta