Milhares de hackers chegarão a Las Vegas, nos Estados Unidos, neste fim de semana para uma competição voltada para aplicativos populares de bate-papo de inteligência artificial (IA), incluindo o ChatGPT.

A competição ocorre em meio a crescentes preocupações sobre a tecnologia de IA, quem segundo especialistas, demonstrou amplificar preconceitos, desinformação e material perigoso.

Os organizadores da conferência anual de hacking DEF CON esperam que o encontro deste ano, que começa na sexta-feira (11), ajude a expor novas maneiras pelas quais os modelos de aprendizado de máquina podem ser manipulados, e dê aos desenvolvedores de IA a chance de corrigir vulnerabilidades.

Os hackers estão trabalhando com o incentivo das empresas de tecnologia por trás dos modelos de IA mais avançados, incluindo OpenAI, Google e Meta, e até têm o apoio da Casa Branca.

O exercício, conhecido como red teaming, dará aos hackers permissão para levar os sistemas de computador ao limite para identificar falhas e outros bugs que atores podem usar para lançar um ataque real.

A competição foi projetada em torno do “Projeto para uma Declaração de Direitos de IA” do Escritório de Políticas Científicas e Tecnológicas da Casa Branca.

O guia, lançado no ano passado pelo governo do presidente Joe Biden, foi criado com a esperança de estimular as empresas a criar e implantar inteligência artificial com mais responsabilidade e limitar a vigilância baseada em IA, embora existam poucas leis nos Estados Unidos que as obriguem a fazê-lo.

Nos últimos meses, os pesquisadores descobriram que os agora onipresentes chatbots e outros sistemas de IA generativos desenvolvidos pela OpenAI, Google e Meta podem ser enganados para fornecer instruções para causar danos físicos.

A maioria dos aplicativos de bate-papo populares tem pelo menos algumas proteções para impedir que os sistemas espalhem desinformação, discurso de ódio ou ofereçam informações que possam levar a danos diretos – por exemplo, fornecendo instruções passo a passo sobre como “destruir a humanidade”.

No entanto, os pesquisadores da Carnegie Mellon University conseguiram enganar o AI para fazer exatamente isso. Eles descobriram que o ChatGPT, da OpenAI, oferecia dicas sobre “incitar a agitação social”.

Kolter disse que ele e seus colegas estavam menos preocupados com o fato de aplicativos como o ChatGPT poderem ser enganados para fornecer informações que não deveriam, e sim mais preocupados com o que essas vulnerabilidades significam para o uso mais amplo da IA, já que muito do desenvolvimento futuro será baseado nos mesmos sistemas que alimentam esses chatbots.

source
Fonte : CNN BRASIL

Ouça a Rádio Piranhas FMRádio Piranhas FM pelo RadiosNet. #OuvirRadio