Discussões IAs: inteligências ou perigos?
Parágrafo pessoal/crítico sobre discussões IA em aula - Para a aula 03/04
As Inteligências Artificiais são exemplos de tecnologias avançadas que, apesar de em um primeiro momento parecerem apenas uma grande invenção que tem por objetivo facilitar a vida das pessoas, são recursos falhos e mesmo perigosos. Um exemplo de mecanismo que está em voga é o ChatGPT, recurso que imita padrões da linguagem humana para dar respostas a qualquer pergunta que o usuário faça na plataforma. O chat levanta a questão do aprendizado da máquina (também citado em "O Dilema das Redes" por conta do potencial dos ultra computadores), que se baseia em descrições e previsões.
A partir desse conceito observa-se como o controle do ser humano sobre o que o potencial das máquinas por eles criados diminui a cada novidade. Isso muito se assemelha ao que expõe Flusser em Animação Cultural quanto a ideia de emancipação dos objetos e da inversão dessa relação de dependência homem-objeto, isto é, os objetos evoluíram tanto ao ponto de agora dominarem a raça humana, uma dependência extrema (a nível de sobrevivência) do homem com objetos/tecnologias.
Mesmo que a evolução desse aprendizado seja bizarra em questão de velocidade de processamento, um ponto levantado pelo chatbot é o quão semelhante essas IAs se aproximam do cérebro e do potencial humano no quesito da sensibilidade crítica. Essa crítica pode estar relacionada tanto a diferenciar o possível e o impossível, uma vez que as inteligências podem aprender absolutamente tudo, mesmo que a partir de uma linha de raciocínio falha, quanto a falta de pensamento moral - não sabem diferenciar o certo e o errado no sentido ético. Devido a essa amoralidade, as IAs acabam disseminando falhas comportamentais da sociedade, como o preconceito de raça e gênero.
Esse primeiro pôde ser exemplificado com a atividade da experimentação de geradores de imagens que funcionavam a partir das ditas Inteligências Artificiais. Foi iniciada em sala uma discussão acerca desse recurso e suas limitações, a partir de relatos de grupos que tentaram inserir prompts com figuras religiosas africanas ou mesmo crianças pretas, mas não conseguiam obter o resultado desejado - seja porque os geradores embraqueciam as personagens ou porque para inserir a pessoa negra, excluíam os demais elementos. Tal ocorrido levantou a questão de o quão as bases de dados que fornecem as informações para o algoritmo não estão livres das opiniões e ideais da sociedade no geral - não é composta por dados neutros mas sim distorcidos. Ou seja, considerando que o preconceito, nesse caso racial, é um problema embutido em nossa sociedade, ele será reproduzido nos geradores artificiais.
Comentários
Postar um comentário