A União Europeia deu um passo significativo ao proibir sistemas de Inteligência Artificial (IA) considerados de ‘risco inaceitável’. Essa decisão reflete a crescente preocupação com as implicações éticas e de segurança que essas tecnologias podem trazer.
Os sistemas de IA classificados como de ‘risco inaceitável’ são aqueles que podem causar danos consideráveis à sociedade ou aos indivíduos, comprometendo direitos fundamentais ou a segurança pública. Exemplos incluem tecnologias de vigilância em massa ou sistemas de pontuação social que podem violar a privacidade e a liberdade pessoal.
A proibição desses sistemas visa garantir que o desenvolvimento e a implementação de IA na Europa sigam princípios éticos e respeitem os direitos humanos. A decisão foi bem recebida por vários grupos de direitos civis, mas também levantou preocupações entre empresas de tecnologia sobre o impacto na inovação.
Empresas que desenvolvem ou utilizam IA na Europa precisarão revisar seus sistemas para garantir conformidade com as novas regulamentações. Isso pode incluir ajustes nos algoritmos ou a descontinuação de certas aplicações que não atendem aos padrões estabelecidos.
Essa medida é parte de um esforço mais amplo da União Europeia para liderar na regulamentação de IA, estabelecendo um equilíbrio entre inovação tecnológica e proteção de direitos fundamentais.
Microsoft amplia portfólio de energia renovável A Microsoft deu um passo significativo ao adicionar 389…
A plataforma de e-commerce Shopify retirou do ar a loja online de Kanye West após…
O Google tomou a decisão de remover eventos como o Mês da História Negra e…
Uma nova direção para o projeto IVAS O Exército dos Estados Unidos está prestes a…
O Founders Fund, fundo de investimentos fundado por Peter Thiel, está prestes a finalizar a…
Entenda o processo contra Elon Musk e DOGE Um grupo de trabalhadores federais está processando…
This website uses cookies.