Big Data Week São Paulo

Um ótimo blog sobre Big Data Analytics com artigos, ebooks e vídeos abordando as aplicações de Big Data Analytics no Brasil e no mundo.
4
Mar

Os riscos da IA avançada são reais. Precisamos agir antes que seja tarde demais, alertam especialistas.

Inteligências artificiais podem jogar xadrez, dirigir um carro e dar diagnósticos médicos. Exemplos incluem o AlphaGo, do Google DeepMind, veículos que dirigem sozinhos, da Tesla e a Watson, da IBM.

Esse tipo de inteligência artificial é conhecido como Inteligência Artificial Estreita (ANI – Artificial Narrow Intelligence) – sistemas não humanos capazes de realizar uma tarefa específica. Encontramos esse tipo de IA em daly basis, e está crescendo rapidamente.

Mas enquanto muitas capacidades impressionantes têm sido demonstradas, nós também começamos a ver problemas. Um caso estranho envolveu o atropelamento de um pedestre por um carro automatizado. O pedestre morreu e o caso segue sob investigação.

A próxima geração da IA

Com a nova geração da IA as apostas certamente serão maiores.

Inteligencia Artificial Geral (AGI – Artificial General Intelligence) terá o poder computacional avançado e nível humano de inteligência. Sistemas AGI serão capazes de aprender, resolver problemas, se adaptar e se melhorar.

Irão até mesmo desempenhar tarefas para as quais não foram concebidos.

É importante dizer que sua taxa de melhoria pode ser exponencial a medida que se tornam muito mais avançados que seus criadores humanos. A introdução da AGI poderia trazer rapidamente a Super Inteligência Artificial (ASI – Artificial Super Intelligence).

Embora sistemas AGI totalmente funcionais ainda não existam, estima-se que eles chegarão entre 2029 e o final do século.

O que é quase certo é que eles chegarão, eventualmente. Quando acontecer, há uma preocupação natural de que não sejamos capazes de controlá-los.

Os riscos associados à AGI

Não há dúvidas de que sistemas AGI poderiam transformar a humanidade.

Algumas das aplicações mais poderosas incluem curar doenças, resolver desafios complexos globais, como mudança climática e segurança alimentícia, e começar um boom tecnológico global.

Porém o fracasso em implementar os controles apropriados poderia conduzir a consequências catastróficas.

Ao contrário dos filmes de Hollywood, as ameaças existenciais provavelmente não envolvem robôs assassinos.

O problema não será malevolência, e sim inteligência, escreve o professor do MIT Max Tegmark, em seu livro Life 3.0: Being Human in the Age of Artificial Intelligence, de 2017.

É aqui que a ciência dos sistemas de máquinas humanas – conhecidos como Fatores Humanos e Ergonomia – virão à tona.

Riscos vão surgir pelo fato de sistemas super inteligentes identificarem jeitos mais eficientes de fazer coisas, tecendo suas próprias estratégias para atingir metas e inclusive criando metas por eles mesmos.

Imagine esses exemplos:

  • Um sistema AGI desenhado para prevenir HIV decide erradicar o problema matando todos que portam a doença, ou um outro desenhado para curar o câncer decide matar todos que tenham predisposição genética para desenvolvê-lo.
  • Um drone militar autônomo AGI decide que o único jeito de garantir a destruição de um alvo é varrer toda aquela comunidade do mapa.
  • Uma AGI de proteção ambiental decide que a única maneira de diminuir ou reverter uma mudança climática é eliminar as tecnologias e os humanos que a induzem.

Esses cenários levantam o espectro de sistemas AGI desiguais batalhando entre si, sem que nenhum deles tenha preocupações humanas como seu mandato central.

Vários futuros distópicos têm sido previstos, onde a raça humana se torna obsoleta e em sequência é extinta.

Outros seguem desdobramentos menos extremos, mas significativos, incluindo uso malicioso de AGI para ataques terroristas e cibernéticos, desaparecimento da necessidade do trabalho humano e a vigilância em massa.

Então existe a necessidade de uma investigação centrada na humanidade para encontrar as maneiras mais seguras de desenhar e gerenciar a AGI, minimizando os riscos e maximizar os benefícios.

Como controlar a AGI

Controlar a AGI não é tão simples quanto aplicar os mesmos tipos de controles que tendem a funcionar com humanos.

Muitos controles no comportamento humano remetem à nossa consiência, nossas emoções e a aplicação de valores morais. AGIs não precisam de nenhum desses atributos para nos causar prejuízo. As formas de controle atuais não são suficientes.

Indiscutivelmente, há três conjuntos de controles que exigem desenvolvimento e teste imediatamente:

  1. Os controles necessários para garantir que os projetistas e desenvolvedores criem sistemas AGI seguros;
  2. Os controles que precisam ser incorporados às próprias AGIs, como “bom senso”, moral, procedimentos operacionais, regras de decisão e etc.
  3. Os controles que precisam ser adicionados aos sistemas mais amplos em que as AGIs vão operar, como regulamentação, códigos de conduta, procedimentos padrão de operação, sistemas de monitoramento e infraestrutura.

Fatores Humanos e Ergonomia oferecem métodos que podem ser usados para identificar, desenhar e testar controles bem antes da chegada dos sistemas AGI.

Por exemplo, é possível modelar os controles que existem em um sistema particular para se agir como provavelmente se comportaria um sistema AGI dentro dessa estrutura de controle e identificar os riscos à segurança.

Isso nos permite identificar onde controles são necessários, desenhá-los e remodelar para ver se os riscos foram removidos.

Agir agora, não depois

Esse tipo de pesquisa está em progresso, mas ainda não é o satisfatório, e não tem disciplinas suficientes envolvidas.

Até mesmo o empreendedor de tecnologia de alto nível Elon Musk alertou sobre a “crise existencial” que a humanidade enfrenta com a IA avançada e falou sobre a necessidade de regulamentação antes que seja tarde demais.

A próxima década representa um período crítico. Essa é a oportunidade de criar sistemas AGI seguros e eficientes que podem trazer benefícios extensos para a sociedade e para a humanidade.

Ao mesmo tempo, uma abordagem somente comercial e usual na qual nos deparamos com rápidos avanços tecnológicos poderia contribuir para a extinção da raça humana. A bola está em nossa quadra, mas não ficará ali por muito tempo.

Paul Salmon, Professor of Human Factors, University of the Sunshine Coast; Peter Hancock, Professor of Psychology, Civil and Environmental Engineering, and Industrial Engineering and Management Systems, University of Central Florida, and Tony Carden, Researcher, University of the Sunshine Coast

This article is republished from The Conversation under a Creative Commons license. Read the original article.

Photo by Simon Zhu on Unsplash.

Leave a Reply