Leitura de notícia
O Globo Online (RJ) ( Sociedade ) - RJ - Brasil - 06-04-2018 - 07:23 -   Notícia original Link para notícia
Contra os exterminadores do futuro

Engenheiros e cientistas mobilizam-se pelo fim de parcerias com a indústria bélica


Humanoides indestrutíveis e mortíferos como vistos no cinema ainda estão num futuro distante, mas drones capazes de identificar e executar seus alvos ou pequenos tanques que penetram silenciosamente nas linhas inimigas de forma autônoma já podem ser construídos com a tecnologia atual. E o rápido avanço da inteligência artificial pode levar ao desenvolvimento de armamentos ainda mais letais, verdadeiros robôs assassinos.


ROBÔS ASSASSINOS Temor dos especialistas é que, num futuro próximo, as armas autônomas tenham sistemas inteligentes de visão computadorizada capazes de identificar seus alvos sozinhos - e apertar o gatilho


Com esse cenário em mente, representantes de mais de 120 países se reunirão na próxima semana em Genebra, na Convenção da ONU sobre Armas Convencionais, para negociar o banimento das armas letais autônomas, enquanto a comunidade de engenheiros e cientistas do setor de tecnologia se levanta contra empresas e universidades que firmaram parcerias com a indústria bélica.


- O objetivo é que os países cheguem a um acordo para banir os robôs assassinos até 2020. Em questão de meses, não de anos, será possível negociar novas leis internacionais - revela a otimista Mary Wareham, coordenadora da campanha da Human Rights Watch "Stop Killer Robots". - Nós queremos o banimento pró-ativo dessas máquinas. Estamos falando sobre questões futuras, de armas que ainda não foram desenvolvidas nem empregadas em campos de batalha, mas estamos cada vez mais perto de elas se tornarem reais, e ainda não temos regras específicas sobre o assunto.


Hoje, as principais potências militares já operam drones à distância que são controlados como videogames, mas a operação ainda depende de um ser humano. No futuro próximo, é possível que essas armas tenham sistemas inteligentes de visão computadorizada capazes de identificar seus alvos de forma autônoma. E apertar o gatilho. Para alguns, essa evolução pode parecer óbvia, mas ela levanta questões filosóficas e legais.


GOOGLE E O LEMA 'NÃO SEJA MAU' O escritor Isaac Asimov, considerado um dos pais da robótica, idealizou três princípios para limitar o comportamento dos robôs. A primeira regra dizia que um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal. Essas armas propõem a quebra desse princípio. E quem deve ser responsabilizado caso o robô cometa um erro e ataque civis inocentes?


- As consequências sobre o embate dessas máquinas no campo de batalha são imprevisíveis. Será que poderemos interferir? Como o mundo reagirá quando um país usar essas armas pela primeira vez? - questiona Mary. - As pessoas já viram filmes ou leram livros de ficção científica sobre robôs assassinos, mas estamos prestes a ver aeronaves armadas matando pessoas sem intervenção humana. E nós, como Humanidade, não estamos preparados para isso. É o que tentamos prevenir.


E a comunidade de técnicos e cientistas está se mobilizando contra a aplicação da robótica e da inteligência artificial no setor bélico. No Google, mais de 3 mil funcionários assinaram uma carta pedindo que a companhia encerre imediatamente um contrato firmado com o Departamento de Defesa dos EUA para o Projeto Maven, que desenvolve sistemas automatizados de identificação de objetos em vídeos.


"Nós acreditamos que o Google não deveria se envolver no negócio da guerra", diz a carta, alertando que a participação em projetos bélicos pode "manchar a reputação da companhia, a história única do Google, seu lema 'não seja mau' e seu alcance direto na vida de bilhões de pessoas". "Construir essa tecnologia para ajudar o governo americano na vigilância militar - e potencialmente com resultados letais - não é aceitável."


O Google respondeu, confirmando a existência da parceria, mas minimizando a participação da empresa. O apoio, disse a companhia, é com o fornecimento do TensorFlow, uma plataforma em código aberto de algoritmos que "ensinam" computadores a realizar determinadas operações. No caso, identificar objetos em imagens. Segundo o Google, a "tecnologia sinaliza imagens para revisão humana e é apenas para uso não ofensivo".


- A identificação de objetos pode ser usada para desenvolver sistemas que automatizem o processo de marcação de alvos - aponta Mary, que disse ter entrado em contato com o Google expressando a preocupação.


Uma outra carta, assinada por cerca de 60 pesquisadores do campo da inteligência artificial, anunciou um boicote ao Instituto Avançado de Ciência e Tecnologia da Coreia (Kaist, na sigla em inglês), a principal universidade sulcoreana, por causa da abertura do Centro de Pesquisas para a Convergência da Defesa Nacional e Inteligência Artificial em parceria com a Hanwha Systems, maior fabricante de armamentos do país.


Segundo a imprensa sul-coreana, o centro foi aberto em 20 de fevereiro com o objetivo de "desenvolver tecnologias de inteligência artificial para aplicação em armamentos militares, juntando-se à competição global no desenvolvimento de armas autônomas".


'ISSO ULTRAPASSA UMA LINHA MORAL' "No momento em que as Nações Unidas estão discutindo como conter a ameaça apresentada à segurança internacional pelas armas autônomas, é lamentável que uma instituição prestigiada como a Kaist queira acelerar a corrida para desenvolver tais armas", diz o documento, assinado por cientistas das principais universidades do mundo. "Portanto, declaramos publicamente o boicote a todas as colaborações com qualquer parte da Kaist até que o presidente do instituto forneça garantias de que o centro não desenvolverá armas autônomas sem controle humano. Não iremos, por exemplo, visitar o Kaist, hospedar visitantes do Kaist ou contribuir para qualquer projeto que envolva o Kaist".


Logo após a divulgação da carta, anteontem, o presidente da universidade, Sung-Chul Shin, negou que a Kaist esteja desenvolvendo robôs assassinos e disse que o foco é em sistemas de comando e controle, navegação autônoma para submarinos, treinamento de aeronaves inteligentes e reconhecimento de objetos.


"Eu reafirmo que a Kaist não irá conduzir qualquer atividade de pesquisa contra a dignidade humana, incluindo armamentos autônomos sem controle humano significativo", ressalta Shin, em comunicado.


A carta foi elaborada pelo professor Toby Walsh, da Universidade de Nova Gales do Sul, em Sidney, Austrália. Em entrevista à Reuters, o cientista afirmou que o rápido posicionamento da universidade pode influenciar as conversas da semana que vem em Genebra, e que o boicote está suspenso. Entretanto, é importante que a comunidade se mantenha vigilante:


- Nós não devemos passar a decisão de quem vive ou morre para uma máquina - ressalta Walsh. - Isso ultrapassa uma linha moral.


Nenhuma palavra chave encontrada.
O conteúdo acima foi reproduzido conforme o original, com informações e opiniões de responsabilidade da fonte (veículo especificado acima).
© Copyright. Interclip - Monitoramento de Notícias. Todos os direitos reservados, 2013.