fbpx

Dia a dia

“Só alertar sobre imagens com IA não adianta”, diz especialista

José Luis Bolzan de Morais, que é especialista em Direito Digital, diz que a medida não resolve os problemas gerados pela Inteligência Artificial, mas já é um avanço

Publicado

em

um notebook e mãos, com símbolos que remetem à inteligência artificial

Inteligência Artificial. Foto: FreePik

A Meta anunciou que vai identificar “nos próximos meses” qualquer imagem gerada por Inteligência Artificial (IA) que apareça em suas redes sociais Facebook, Instagram e Threads. A empresa já identifica imagens feitas por robôs com a ajuda de sua própria ferramenta, Meta IA, lançada em dezembro. O professor José Luis Bolzan de Morais, que também é advogado especialista em Direito Digital, diz que a medida não resolve os problemas gerados pela IA, mas já é um avanço: “Tornaria o internauta consciente da origem da postagem, melhor, da forma como o conteúdo fora produzido”, destaca.

> Quer receber as principais notícias do ES360 no WhatsApp? Clique aqui e entre na nossa comunidade!

“A desinformação se torna cada vez mais potente em razão do desenvolvimento tecnológico, por um lado, e pela facilitação do seu uso, tornando possível a qualquer um, em qualquer lugar, produzir conteúdo utilizando tais instrumentos. Essas novíssimas tecnologias, todavia, não são imunes a controles, sobretudo por meios tecnológicos disponíveis, principalmente detidos pelas próprias plataformas de relacionamento e divulgação digitais. Portanto, a identificação destas publicações é um meio que, pelo menos, daria a conhecer a origem delas, se foram produzidas com ou sem uso de meios tecnológicos. A sua identificação daria, minimamente, ao usuário/destinatário a notícia de ser produzida por IA”, analisa.

> Pontos positivos, negativos e o futuro da inteligência artificial

Mas ainda assim, segundo Bolzan, se trata de uma prática insuficiente. “Afinal, não garantiria integridade à informação circulante, apenas a anotação acerca do modo de produção. Da mesma forma, a decisão permanece no domínio da própria plataforma, o que não garante sua aplicação, como a experiência já mostrou, quando se denunciou práticas de privilegiamento adotadas por tais empresas, sempre alicerçadas em seus modelos de negócios”, lembra. E, então, o que fazer? “No âmbito das próprias plataformas, talvez uma melhor e mais eficaz moderação de conteúdos, inclusive com transparência nas e das decisões, o que, muitas vezes, pode conflitar com seu modelo de negócio”, explica.

> A inteligência artificial poderá adquirir soft skills humanos?

Neste contexto, segundo o professor, a regulação, que vem ganhando terrenos mundo afora, parece inevitável. “Mas não basta regular. Seria preciso tornar a regulação efetiva e isso coloca problemas, inclusive quanto às condições para os Estados Nacionais agirem, seja legislativa, seja jurisdicionalmente. Para estas novas ‘realidades digitais’, precisa-se pensar novas respostas, compatíveis com aquilo que significa a disrupção por elas promovidas. Pensar o local, os meios e métodos da e para a regulação são questões ainda em aberto”, finaliza.