News

Especialista em IA: escândalo fotográfico de Kate mostra "senso de realidade compartilhada" erodindo


Deprecated: preg_split(): Passing null to parameter #3 ($limit) of type int is deprecated in /home/freshbar/public_html/wp-content/themes/jannah/framework/functions/post-functions.php on line 805

Londres – O Parlamento Europeu aprovou na quarta-feira a primeira lei abrangente do mundo que regulamenta o uso de inteligência artificial, enquanto a controvérsia girava em torno uma foto editada de Catarina, a Princesa de Gales, que, segundo os especialistas, ilustra como até a consciência das novas tecnologias de IA está a afectar a sociedade.

“A reação a esta imagem, se fosse lançada antes, antes do grande boom de IA que vimos nos últimos anos, provavelmente seria: 'Este é um trabalho muito ruim com edição ou Photoshop'”, Henry Ajder, um especialista em IA e deepfakes, disse à CBS News. “Mas por causa da conversa sobre Kate Middleton estar ausente dos olhos do público e do tipo de pensamento conspiratório que isso é encorajado, quando isso se combina com esta nova e mais ampla consciência das imagens geradas pela IA… a conversa é muito, muito diferente.”

A princesa Kate, como é mais conhecida, admitiu ter “editado” a foto dela e de seus três filhos, que foi postado em suas contas oficiais de mídia social no domingo. Nem ela nem o Palácio de Kensington forneceram quaisquer detalhes sobre o que ela havia alterado na foto, mas um observador real disse à CBS News poderia ter sido uma imagem composta criada a partir de várias fotografias.

Ajder disse Tecnologia de IAe o rápido aumento da consciência pública sobre o que pode fazer, significa que o “senso de realidade partilhada das pessoas, penso eu, está a ser corroído ainda mais ou mais rapidamente do que antes”.

Contrariar esta situação, disse ele, exigirá trabalho por parte de empresas e indivíduos.

O que há na nova Lei de IA da UE?

O novo Lei de IA adota uma abordagem baseada em risco para a tecnologia. Para sistemas de IA de menor risco, como filtros de spam, as empresas podem optar por seguir códigos de conduta voluntários.

Para tecnologias consideradas de maior risco, onde a IA está envolvida em redes eléctricas ou dispositivos médicos, por exemplo, haverá requisitos mais rigorosos ao abrigo da nova lei. Alguns usos da IA, como a varredura policial dos rostos das pessoas usando tecnologia de IA enquanto elas estão em locais públicos, serão totalmente proibidos, exceto em circunstâncias excepcionais.

A UE afirma que a lei, que deverá entrar em vigor no início do verão, “garantirá a segurança e os direitos fundamentais das pessoas e das empresas no que diz respeito à IA”.

Perdendo “nossa confiança no conteúdo”?

Milhões de pessoas veem dezenas de imagens todos os dias em seus smartphones e outros dispositivos. Especialmente em telas pequenas, pode ser muito difícil de detectar inconsistências que possam indicar adulteração ou uso de IA, se for possível detectá-las.

“Isso mostra nossa vulnerabilidade em relação ao conteúdo e à forma como construímos nossas realidades”, disse Ramak Molavi Vasse’i, advogado de direitos digitais e pesquisador sênior da Mozilla Foundation, à CBS News. “Se não podemos confiar no que vemos, isso é muito ruim. Não só já temos uma diminuição na confiança nas instituições. Temos uma diminuição na confiança e na mídia, temos uma diminuição na confiança, mesmo para as grandes tecnologias… e para os políticos. Portanto, esta parte é muito ruim para as democracias e pode ser desestabilizadora.”

Vasse'i foi co-autor de um relatório recente analisando a eficácia de diferentes métodos de marcação e detectando se um conteúdo foi gerado usando IA. Ela disse que há uma série de soluções possíveis, incluindo a educação de consumidores e tecnólogos e marcas d'água e rotulagem de imagens, mas nenhuma delas é perfeita.

“Temo que a velocidade com que o desenvolvimento acontece seja muito rápida. Não podemos compreender e realmente governar e controlar a tecnologia, não criando o problema em primeiro lugar, mas acelerando a velocidade e distribuindo o problema”, disse Vasse. 'Eu disse à CBS News.

“Acho que temos que repensar todo o ecossistema informacional que temos”, disse ela. “As sociedades baseiam-se na confiança a nível privado, a nível democrático. Precisamos de recriar a nossa confiança no conteúdo.”

Como posso saber que o que estou vendo é real?

Ajder disse que, para além do objectivo mais amplo de trabalhar em formas de incorporar a transparência em torno da IA ​​nas nossas tecnologias e ecossistemas de informação, é difícil, a nível individual, dizer se a IA foi usada para mudar ou criar uma peça de comunicação social.

Isso, disse ele, torna de vital importância que os consumidores de mídia identifiquem fontes que tenham padrões de qualidade claros.

“Neste cenário onde há crescente desconfiança e rejeição deste tipo de mídia tradicional, este é um momento em que a mídia tradicional é sua amiga, ou pelo menos é mais provável que seja sua amiga do que receber notícias de pessoas aleatórias tweetando. coisas ou, você sabe, vídeos do Tiktok onde você tem um cara em seu quarto analisando por que esse vídeo é falso”, disse Adjer. “É aqui que o jornalismo investigativo treinado e rigoroso terá melhores recursos e será mais confiável em geral”.


Criando um “detector de mentiras” para deepfakes

05:36

Ele disse que dicas sobre como identificar IA em imagens, como observar quantas vezes alguém pisca em um vídeo, podem rapidamente se tornar desatualizadas à medida que as tecnologias se desenvolvem na velocidade da luz.

Seu conselho: “Tente reconhecer as limitações de seu próprio conhecimento e de sua própria capacidade. Acho que alguma humildade em relação à informação é importante em geral neste momento.”

Source link


Deprecated: preg_split(): Passing null to parameter #3 ($limit) of type int is deprecated in /home/freshbar/public_html/wp-content/themes/jannah/framework/functions/post-functions.php on line 805

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button