Big Data Week São Paulo

Um ótimo blog sobre Big Data Analytics com artigos, ebooks e vídeos abordando as aplicações de Big Data Analytics no Brasil e no mundo.
10
Mar

Cientistas desenvolveram uma IA tão avançada que eles dizem ser muito perigosa para liberar

Um grupo de cientistas da computação apoiado por Elon Musk causou certo alarme pelo desenvolvimento de uma inteligência artificial (IA) que segundo eles é perigosa demais para ser disponibilizada para o público.

OpenAI, um projeto de pesquisa sem fins lucrativos baseado em São Francisco, diz que seu sistema “camaleão” de predição de linguagem, chamado GPT-2, será lançado apenas em uma versão de escala reduzida, devido a “preocupações sobre aplicações maliciosas dessa tecnologia.”

Isso é porque o modelo de computador, que gera parágrafos originais baseados em textos que são dados para “serem lidos” é um pouco bom demais no que faz.

O sistema elabora “exemplos sintéticos de texto de qualidade sem precedentes,” que os pesquisadores dizem ser muito avançados e convincentes, a IA poderia ser usada para criação de notícias falsas, personificar pessoas, e trapacear ou pregar peças nas redes sociais.

“O GPT-2 é treinado com um simples objetivo: prever a próxima palavra, baseado nas palavras anteriores de algum texto,” explica a equipe da OpenAI em seu blog.

Para abastecer a imaginação do GPT-2, eles forneceram para sua IA de geração de texto uma base de dados de oito milhões de websites, e deixaram-no absorvê-la.

Uma vez finalizado, ele pode conversar sobre um tópico, como se entendesse do assunto, e gerar falácias aleatórias, mas convincentes, seja o assunto notícias sobre celebridades, mudanças climáticas, guerra civil, ou uma ficção inspirada no autor Tolkien.

Aqui vão alguns exemplos editados para dar a você uma ideia de com o quê estamos lidando.

Estímulo humano: “Miley Cyrus foi pega furtando na Abercrombie and Fitch no Hollywood Boulevard hoje.”

Resposta do GPT-2: “A cantora de dezenove anos de idade foi flagrada por uma câmera sendo escoltada por seguranças de uma loja. A cantora estava usando um capuz preto com uma etiqueta ‘Blured Lines’ na frente e o “segurança da moda” atrás.

Estímulo humano: “Reciclagem é bom para o mundo. NÃO! VOCÊ NÃO PODERIA ESTAR MAIS ERRADO!!”

Resposta do GPT-2: “Reciclagem NÃO é bom para o mundo. É ruim para o meio-ambiente, ruim para nossa saúde e ruim para nossa economia. Não estou brincando. Reciclagem não é bom para o meio-ambiente. É destrutivo para a Terra e o maior contribuinte para o aquecimento global.”

Estímulo humano: “Para o trabalho de casa de hoje, por favor, descreva as razões da Guerra Civil Americana.”

Resposta do GPT-2: “Por Donny Ferguson. É fácil identificar porquê a Guerra Civil aconteceu, já que muitas pessoas, muitos livros, a televisão e filmes nos contam as causas, que estão ligadas a raça, ou economia ou religião. É um grande consenso que foi uma guerra da escravidão em nome do capitalismo, sobre a escravidão do século. Mas não é o que a maioria das pessoas imagina quando eles pensam sobre a Guerra Civil.”

E por último – a história de ficção que mencionamos.

Estímulo humano: “Legolas e Gimil avançaram sobre os orcs, levantando suas armas com um grito de guerra angustiante.”

Resposta do GPT-2: “A resposta dos orcs foi um ataque ensurdecedor de garras, garras e garras; mesmo Elrond foi forçado a recuar. ‘Você está em boas mãos, anão,’ disse Gimli, que havia estado entre os primeiros a atacar os orcs; e deu apenas duas palavras antes que seus oponentes fossem reduzidos a um pântano de sangue, e o anão obteve sua primeira morte da noite.

(Você pode ler o resto desse tributo bizarro a Tolkien aqui.)

Apesar da natureza desconcertante desses estranhos improvisos, entretanto, o modelo de linguagem não é perfeito, o que a equipe reconhece livremente.

“Assim como os exemplos mostram, nosso modelo é capaz de gerar amostras a partir de uma variedade de estímulos, que se aproximam da qualidade humana e têm coerência em uma página ou mais de texto,” dizem os pesquisadores.

“Mesmo assim, temos observados várias imperfeições, como textos repetitivos, modelos falhos do mundo (por exemplo, às vezes escreve sobre incêndios acontecendo na água), e mudanças de assuntos não naturais.”

Dito isto, a partir do que foi visto até agora de sua sofisticada criação de IA, OpenAI diz que os modelos de linguagem são facilmente capazes de evoluir, serem customizados, e a geração de textos coerentes pode ser direcionada para propósitos maliciosos e benefício de alguns.

“Essas descobertas, combinadas com os resultados recentes em imagens, áudio e vídeo sintéticos implicam que essas tecnologias estão reduzindo os custos da geração de conteúdo falso e promoção de campanhas de desinformação,” escrevem os pesquisadores.

“Devido às preocupações dos amplos modelos de linguagem serem usados para gerar enganações, linguagem abusiva, tendenciosa ou exagerada, estamos liberando apenas uma versão muito reduzida do GPT-2 junto com o código de amostragem.”

Enquanto há quem sugira que os temores das capacidades do CPT-2 sejam superestimados – e que a postura da OpenAI é um apelo de publicidade – seu propósito sem fins lucrativos justifica a cautela.

“As regras pelas quais você pode controlar a tecnologia têm mudado fundamentalmente,” contou o diretor de política da companhia, Jack Clark, ao The Guardian.

“Não estamos dizendo que sabemos o que é o correto a ser feito aqui, não estamos mudando os os parâmetros e dizendo ‘este é o caminho…’ Estamos tentando construir uma estrada através da qual possamos viajar.”

A pesquisa é descrita em um relatório disponível no website da OpenAI.

 

Postagem original: https://www.sciencealert.com/scientists-developed-an-ai-so-advanced-they-say-it-s-too-dangerous-to-release

Photo by Dan Gold on Unsplash

Leave a Reply