Sem Categoria (Por enquanto)

OpenAI adverte sobre divisão com a Europa à medida que a regulamentação dos avanços tecnológicos

[ad_1]

O chefe da OpenAI, Sam Altman, alertou que os esforços de Bruxelas para regular a inteligência artificial podem levar o fabricante do ChatGPT a retirar seus serviços da UE, no sinal mais claro de uma crescente divisão transatlântica sobre como controlar a tecnologia.

Falando a repórteres durante uma visita a Londres nesta semana, Altman disse que tinha “muitas preocupações” sobre a planejada Lei de IA da UE, que deve ser finalizada no ano que vem. Em particular, ele apontou para um movimento do parlamento europeu neste mês para expandir seus regulamentos propostos para incluir a mais recente onda de tecnologia de IA de uso geral, incluindo grandes modelos de linguagem como o GPT-4 da OpenAI.

“Os detalhes realmente importam”, disse Altman. “Vamos tentar cumprir, mas se não conseguirmos deixaremos de operar.”

O alerta de Altman ocorre no momento em que as empresas de tecnologia dos EUA se preparam para o que alguns preveem que será uma batalha prolongada com os reguladores europeus sobre uma tecnologia que abalou o setor este ano. O presidente-executivo do Google, Sundar Pichai, também visitou as capitais europeias esta semana, buscando influenciar os formuladores de políticas à medida que desenvolvem “guardas de proteção” para regular IA.

A Lei de IA da UE foi inicialmente projetada para lidar com usos específicos e de alto risco da inteligência artificial, como seu uso em produtos regulamentados, como equipamentos médicos, ou quando as empresas o utilizam em decisões importantes, incluindo concessão de empréstimos e tomada de decisões de contratação.

No entanto, a sensação causada pelo lançamento do ChatGPT no final do ano passado causou um repensar, com o parlamento europeu este mês estabelecendo regras extras para sistemas amplamente utilizados que possuem aplicações gerais além dos casos previamente visados. A proposta ainda precisa ser negociada com os Estados membros e a Comissão Europeia antes que a lei entre em vigor em 2025.

O plano mais recente exigiria que os fabricantes de “modelos de fundação” – os grandes sistemas que estão por trás de serviços como o ChatGPT – identificassem e tentassem reduzir os riscos que sua tecnologia poderia representar em uma ampla variedade de configurações. O novo requisito tornaria as empresas que desenvolvem os modelos, incluindo OpenAI e Google, parcialmente responsáveis ​​por como seus sistemas de IA são usados, mesmo que não tenham controle sobre os aplicativos específicos nos quais a tecnologia foi incorporada.

As regras mais recentes também forçariam as empresas de tecnologia a publicar resumos de dados protegidos por direitos autorais que foram usados ​​para treinar seus modelos de IA, abrindo caminho para artistas e outros tentarem reivindicar compensação pelo uso de seu material.

A tentativa de regulamentar a IA generativa enquanto a tecnologia ainda está em sua infância mostrou um “medo por parte dos legisladores, que estão lendo as manchetes como todo mundo”, disse Christian Borggreen, chefe europeu da Computer and Communications Industry Association, com sede em Washington. . As empresas de tecnologia dos EUA apoiaram o plano anterior da UE de regular a IA antes da reação “instintiva” ao ChatGPT, acrescentou.

As empresas de tecnologia dos EUA pediram a Bruxelas que agisse com mais cautela quando se trata de regulamentar a mais recente IA, argumentando que a Europa deveria levar mais tempo para estudar o tecnologia e descobrir como equilibrar as oportunidades e os riscos.

Pichai se reuniu com autoridades em Bruxelas na quarta-feira para discutir a política de IA, incluindo Brando Benifei e Dragoş Tudorache, os principais eurodeputados encarregados da Lei de IA. Pichai enfatizou a necessidade de regulamentação adequada para a tecnologia que não sufocasse a inovação, segundo três pessoas presentes nesses encontros.

Pichai também se encontrou com Thierry Breton, chefe digital da UE que supervisiona a Lei de IA. Breton disse ao Financial Times que eles discutiram a introdução de um “pacto de IA” – um conjunto informal de diretrizes para as empresas de IA aderirem, antes que as regras formais entrem em vigor porque “não há tempo a perder na corrida da IA ​​para construir um ambiente seguro”. ambiente on-line”.

Os críticos dos EUA afirmam que a Lei de IA da UE imporá amplas novas responsabilidades para controlar os riscos dos mais recentes sistemas de IA sem, ao mesmo tempo, estabelecer padrões específicos que eles devem cumprir.

Embora seja muito cedo para prever os efeitos práticos, a natureza aberta da lei pode levar algumas empresas de tecnologia dos EUA a repensar seu envolvimento na Europa, disse Peter Schwartz, vice-presidente sênior de planejamento estratégico da empresa de software Salesforce.

Ele acrescentou que Bruxelas “agirá sem referência à realidade, como antes” e que, sem nenhuma empresa europeia liderando o ataque em IA avançada, os políticos do bloco têm pouco incentivo para apoiar o crescimento da indústria. “Serão basicamente os reguladores europeus regulando as empresas americanas, como tem sido ao longo da era da TI.”

As propostas europeias se mostrariam viáveis ​​se levassem a “requisitos contínuos para as empresas acompanharem as pesquisas mais recentes [on AI safety] e a necessidade de identificar e reduzir continuamente os riscos”, disse Alex Engler, membro da Brookings Institution em Washington. “Parte da imprecisão pode ser preenchida pela CE e por órgãos de padronização posteriormente.”

Embora a lei pareça ser direcionada apenas a grandes sistemas como o ChatGPT e o chatbot Bard do Google, existe o risco de que ela “atinga modelos de código aberto e uso sem fins lucrativos” da IA ​​mais recente, disse Engler.

Executivos da OpenAI e do Google disseram nos últimos dias que voltar eventual regulamentação da IA, embora tenham pedido mais investigação e debate.

Kent Walker, presidente de assuntos globais do Google, disse em uma postagem de blog na semana passada que a empresa apoiou os esforços para estabelecer padrões e alcançar um amplo acordo político sobre IA, como os que estão em andamento nos EUA, Reino Unido e Cingapura – enquanto evitava fazer comentários sobre a UE, que é o mais avançado na adoção regras específicas.

O cronograma político significa que Bruxelas pode optar por seguir em frente com sua proposta atual, em vez de tentar estabelecer regras mais específicas à medida que a IA generativa se desenvolve, disse Engler. Demorar mais para refinar a Lei de IA arriscaria adiá-la além do mandato da atual presidência da UE, algo que poderia devolver todo o plano à prancheta, acrescentou.

[ad_2]

Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *