-
Latam retira 169 passageiros de voo após incêndio perto de avião no aeroporto de Guarulhos
-
Putin continuará fornecendo petróleo à Índia, apesar da pressão dos EUA
-
CEO do Softbank diz que uma super-IA pode transformar humanos em 'peixes' ou vencer o Nobel
-
OpenAI anuncia acordo para construir centro de IA na Austrália
-
Chuvas dificultam limpeza no Sri Lanka após inundações que atingiram vários países da Ásia
-
Empresas chinesas de óculos inteligentes buscam conquistar mercado mundial
-
UE abre investigação contra Meta por práticas contrárias à concorrência na IA do Whatsapp
-
Economia do Brasil avança no terceiro trimestre impulsionada pelo agro
-
Nintendo lança 'Metroid Prime 4', a esperada nova edição de sua saga de ficção científica
-
Indonésia e Sri Lanka em alerta por previsões de chuvas após inundações devastadoras
-
Previsões de chuva aumentam temores na Indonésia e Sri Lanka após inundações
-
Mais de 200 celebridades pedem libertação de líder palestino
-
Proliferação de satélites ameaça observação do céu com telescópios
-
Após apagão, Cuba inicia restauração gradual do serviço elétrico
-
Nomeado por Trump para Nasa reforça desejo de retornar à Lua antes da China
-
Boom dos data centers molda uma cidade dos EUA
-
Luxo 'Made in Italy' é alvo de investigações sobre suas subcontratadas
-
México anuncia redução da jornada de trabalho e aumento do salário mínimo
-
UE tem acordo para proibir gás russo a partir do fim de 2027
-
Airbus reduz meta de entregas para 2025 após problema em fuselagem do A320
-
Crianças traumatizadas pela guerra em Gaza são tratadas com realidade virtual
-
Médico recebe sentença por fornecer cetamina a Matthew Perry
-
YouTube afirma que crianças estarão 'menos seguras' com restrição australiana
-
Agência médica dos EUA reduzirá testes científicos em macacos
-
Amazon apresenta novo chip de IA para competir com Nvidia
-
'É pouco provável' que ex-príncipe Andrew receba compensação por mudança forçada
-
'Venha e me mate': o pedido das formigas doentes para salvar a colônia
-
OpenAI declara 'código vermelho' diante de forte concorrência ao ChatGPT
-
Como o desmatamento piorou as inundações na Indonésia
-
Países asiáticos lutam para distribuir ajuda após inundações que deixaram 1.300 mortos
-
OCDE eleva previsões de crescimento de 2025 para EUA, China e zona do euro
-
Apple anuncia a saída do diretor de IA da empresa
-
Samsung lança primeiro smartphone dobrável triplo
-
Verificação de idade com selfies, um sistema em ascensão para identificar menores na internet
-
Inundações devastadoras deixam mais de mil mortos na Ásia
-
Venezuela denuncia 'ameaça colonialista' após alerta de Trump sobre seu espaço aéreo
-
Max, a alternativa ao WhatsApp que divide os usuários na Rússia
-
Airbus intervém rapidamente nos modelos A320, mas cerca de 100 permanecem em solo
-
Airbus intervém rapidamente nos modelos A320, mas uma centena ficará em solo
-
Airbus pede suspensão de voos de 6 mil A320 para troca de programa de controle
-
Airbus pede suspensão de voos de 6 mil A320 para trocar programa de controle de voo
-
Rússia ameaça com proibição total do WhatsApp
-
Presidente alemão faz visita histórica a Guernica, bombardeada pelos nazistas
-
Emprego no Brasil resiste novamente às tarifas dos EUA
-
Proibição da carne de cachorro gera controvérsia em Jacarta
-
Pior incêndio em décadas deixa mais de 90 mortos em Hong Kong
-
Louvre aumentará em 45% preço do ingresso para visitantes extraeuropeus
-
Três astronautas europeus participarão de missões à Lua
-
Ovo Fabergé avaliado em R$ 133,7 milhões será leiloado em Londres
-
Hong Kong procura centenas de desaparecidos após incêndio que deixou 75 mortos
Gigantes americanas da IA se unem para buscar autorregulação
Google, Microsoft, Anthropic e OpenAI, quatro das empresas americanas que lideram o cenário da Inteligência Artificial (IA) de última geração, anunciaram nesta quarta-feira (26) a criação de um novo órgão profissional para combater os riscos associados a esta tecnologia.
O "Frontier Model Forum" terá a responsabilidade de promover o "desenvolvimento responsável" dos modelos de IA mais sofisticados e "minimizar os potenciais riscos", de acordo com um comunicado à imprensa.
Assim, os membros se comprometem a compartilhar boas práticas entre si e com legisladores, pesquisadores e associações, para que esses sistemas sejam menos perigosos.
A rápida implantação da IA generativa, por meio de plataformas como ChatGPT (OpenAI), Bing (Microsoft) ou Bard (Google), está gerando preocupação entre autoridades e a sociedade civil.
A União Europeia (UE) está finalizando um projeto de regulação desta tecnologia que deve impor obrigações às empresas do setor, como transparência com os usuários ou controle humano sobre as máquinas.
Já nos Estados Unidos, as tensões políticas com o Congresso impedem qualquer esforço neste campo.
Esta é uma das razões pelas quais a Casa Branca pede que as partes interessadas garantam a segurança de seus produtos, em nome de seu "dever moral", afirmou a vice-presidente americana, Kamala Harris, no início de maio.
Na semana passada, o governo de Joe Biden garantiu os "compromissos" da Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI para defender "três princípios" no desenvolvimento de IA: segurança, proteção e confiança.
Supõe-se que estas empresas devem testar seus programas antecipadamente, combater ataques cibernéticos e fraudes e encontrar maneiras de sinalizar que o conteúdo foi gerado por IA, para que seja claramente autenticado como tal.
Os dirigentes destas companhias também não negam os riscos.
Em junho, Sam Altman, diretor da OpenAI, e Demis Hassabis, presidente da DeepMind (Google), exortaram a luta contra "os riscos de extinção" da humanidade "ligada à IA".
Durante uma audiência no Congresso, Altman endossou a ideia cada vez mais popular de criar uma agência internacional encarregada da regulação da inteligência artificial, como as que existem em outros campos.
Enquanto isso, a OpenAI está trabalhando em uma IA chamada "geral", com habilidades cognitivas semelhantes às dos humanos.
Em uma publicação de 6 de julho, a empresa abordou que tem como foco os "modelos de fronteira" da IA, "modelos fundamentais altamente sofisticados que poderiam adquirir capacidades perigosas suficientes para oferecer sérios riscos à segurança pública".
A gigante americana ainda alerta que esses recursos perigosos podem "surgir inesperadamente" e que "é realmente difícil impedir que um modelo implantado seja mal utilizado".
M.Anderson--CPN