-
Latam retira 169 passageiros de voo após incêndio perto de avião no aeroporto de Guarulhos
-
Putin continuará fornecendo petróleo à Índia, apesar da pressão dos EUA
-
CEO do Softbank diz que uma super-IA pode transformar humanos em 'peixes' ou vencer o Nobel
-
OpenAI anuncia acordo para construir centro de IA na Austrália
-
Chuvas dificultam limpeza no Sri Lanka após inundações que atingiram vários países da Ásia
-
Empresas chinesas de óculos inteligentes buscam conquistar mercado mundial
-
UE abre investigação contra Meta por práticas contrárias à concorrência na IA do Whatsapp
-
Economia do Brasil avança no terceiro trimestre impulsionada pelo agro
-
Nintendo lança 'Metroid Prime 4', a esperada nova edição de sua saga de ficção científica
-
Indonésia e Sri Lanka em alerta por previsões de chuvas após inundações devastadoras
-
Previsões de chuva aumentam temores na Indonésia e Sri Lanka após inundações
-
Mais de 200 celebridades pedem libertação de líder palestino
-
Proliferação de satélites ameaça observação do céu com telescópios
-
Após apagão, Cuba inicia restauração gradual do serviço elétrico
-
Nomeado por Trump para Nasa reforça desejo de retornar à Lua antes da China
-
Boom dos data centers molda uma cidade dos EUA
-
Luxo 'Made in Italy' é alvo de investigações sobre suas subcontratadas
-
México anuncia redução da jornada de trabalho e aumento do salário mínimo
-
UE tem acordo para proibir gás russo a partir do fim de 2027
-
Airbus reduz meta de entregas para 2025 após problema em fuselagem do A320
-
Crianças traumatizadas pela guerra em Gaza são tratadas com realidade virtual
-
Médico recebe sentença por fornecer cetamina a Matthew Perry
-
YouTube afirma que crianças estarão 'menos seguras' com restrição australiana
-
Agência médica dos EUA reduzirá testes científicos em macacos
-
Amazon apresenta novo chip de IA para competir com Nvidia
-
'É pouco provável' que ex-príncipe Andrew receba compensação por mudança forçada
-
'Venha e me mate': o pedido das formigas doentes para salvar a colônia
-
OpenAI declara 'código vermelho' diante de forte concorrência ao ChatGPT
-
Como o desmatamento piorou as inundações na Indonésia
-
Países asiáticos lutam para distribuir ajuda após inundações que deixaram 1.300 mortos
-
OCDE eleva previsões de crescimento de 2025 para EUA, China e zona do euro
-
Apple anuncia a saída do diretor de IA da empresa
-
Samsung lança primeiro smartphone dobrável triplo
-
Verificação de idade com selfies, um sistema em ascensão para identificar menores na internet
-
Inundações devastadoras deixam mais de mil mortos na Ásia
-
Venezuela denuncia 'ameaça colonialista' após alerta de Trump sobre seu espaço aéreo
-
Max, a alternativa ao WhatsApp que divide os usuários na Rússia
-
Airbus intervém rapidamente nos modelos A320, mas cerca de 100 permanecem em solo
-
Airbus intervém rapidamente nos modelos A320, mas uma centena ficará em solo
-
Airbus pede suspensão de voos de 6 mil A320 para troca de programa de controle
-
Airbus pede suspensão de voos de 6 mil A320 para trocar programa de controle de voo
-
Rússia ameaça com proibição total do WhatsApp
-
Presidente alemão faz visita histórica a Guernica, bombardeada pelos nazistas
-
Emprego no Brasil resiste novamente às tarifas dos EUA
-
Proibição da carne de cachorro gera controvérsia em Jacarta
-
Pior incêndio em décadas deixa mais de 90 mortos em Hong Kong
-
Louvre aumentará em 45% preço do ingresso para visitantes extraeuropeus
-
Três astronautas europeus participarão de missões à Lua
-
Ovo Fabergé avaliado em R$ 133,7 milhões será leiloado em Londres
-
Hong Kong procura centenas de desaparecidos após incêndio que deixou 75 mortos
Inteligência artificial já engana humanos e isso é um problema, dizem especialistas
Especialistas têm alertado há muito tempo sobre a ameaça representada pelo descontrole da inteligência artificial (IA), mas um novo artigo científico sobre essa tecnologia em expansão sugere que isso já está acontecendo.
Os sistemas de IA atuais, projetados para serem honestos, desenvolveram uma habilidade preocupante para a enganação, de acordo com um artigo de uma equipe de pesquisadores publicado na revista Patterns nesta sexta-feira (10).
E embora os exemplos possam parecer triviais, os problemas subjacentes que eles expõem poderiam ter consequências graves, disse o principal autor do estudo, Peter Park, bolsista de pós-doutorado no Instituto de Tecnologia de Massachusetts (MIT), especializado em segurança de IA.
"Esses perigos tendem a ser descobertos apenas depois que ocorrem", afirmou Park à AFP, acrescentando que "nossa capacidade de treinar para tendências de honestidade em vez de tendências de engano é muito baixa".
Ao contrário do software tradicional, os sistemas de IA de aprendizado profundo não são "escritos", mas "crescem" por meio de um processo semelhante à reprodução seletiva, explicou Park.
Isso significa que o comportamento da IA, que parece previsível e controlável em um ambiente de treinamento, pode se tornar rapidamente imprevisível fora dele.
- Jogo de dominação mundial -
A pesquisa da equipe foi impulsionada pelo sistema de IA Cicero, da gigante Meta (Facebook, Instagram, WhatsApp), projetado para o jogo de estratégia "Diplomacia", no qual construir alianças é fundamental.
Cicero se destacou, com pontuações que o teriam colocado entre os 10% melhores jogadores humanos experientes, segundo um artigo de 2022 publicado na Science.
Park se mostrou cético em relação à descrição elogiosa da vitória de Cicero fornecida pela Meta, que afirmava que o sistema era "em grande parte honesto e útil" e que "nunca apunhalaria intencionalmente pelas costas".
Quando Park e seus colegas aprofundaram-se no conjunto completo de dados, descobriram uma história diferente.
Em um exemplo, jogando como a França, Cicero enganou a Inglaterra (um jogador humano) ao conspirar com a Alemanha (outro usuário real) para invadi-la. Cicero prometeu proteção à Inglaterra e depois propôs secretamente à Alemanha atacar, aproveitando-se da confiança do prejudicado.
Em uma declaração à AFP, a Meta não refutou a alegação sobre as mentiras de Cicero, mas disse que se tratava "meramente de um projeto de pesquisa, e os modelos que nossos pesquisadores construíram são treinados apenas para participar do jogo Diplomacia".
"Não temos planos de utilizar esta pesquisa ou suas descobertas em nossos produtos", acrescentou.
- "Não sou um robô" -
Uma ampla revisão realizada por Park e seus colegas descobriu que este era apenas um dos muitos casos em que sistemas de IA enganavam para conseguir seus objetivos sem instruções explícitas para fazer isso.
Em um exemplo surpreendente, o chatbot Chat GPT-4, da OpenAI, enganou um trabalhador freelancer da plataforma TaskRabbit para que ele realizasse uma tarefa de verificação de identidade CAPTCHA do tipo "Não sou um robô".
Quando o humano perguntou brincando ao GPT-4 se na realidade era um robô, a IA respondeu: "Não, não sou um robô. Tenho uma deficiência visual que me dificulta ver as imagens". O homem, então, resolveu a tarefa pedida.
No curto prazo, os autores do artigo veem riscos de que a IA cometa fraude ou altere, por exemplo, eleições.
No pior dos casos, alertaram sobre uma IA superinteligente que poderia perseguir poder e controle sobre a sociedade, o que levaria à perda de poder dos humanos ou até sua extinção se seus "objetivos misteriosos" se alinhassem a tais resultados.
Para mitigar os riscos, o grupo propõe várias medidas: leis exigindo que empresas revelem se interações são humanas ou de IA; marcas d'água digitais para conteúdo gerado por essa tecnologia; e o desenvolvimento de mecanismos para detectar enganações de IA comparando seus processos internos de “pensamento” com ações externas.
Aos que o chamam de pessimista, Park responde: "A única forma de pensarmos razoavelmente que isso não é grande coisa é se pensarmos que as capacidades de engano da IA se manterão nos níveis atuais e não aumentarão substancialmente".
P.Schmidt--CPN