Trabalhadores que treinam sistemas de IA como ChatGPT, Gemini e Grok estão alertando familiares para não usarem essas ferramentas. Uma reportagem do jornal inglês The Guardian conta que muitos, ao perceberem como é fácil deixar passar conteúdos racistas durante avaliações, abandonam o uso de IA e proíbem filhos de usar chatbots.
Outros avaliadores relatam que empresas os colocam para avaliar respostas sobre saúde e ética sem treinamento especializado e que seu feedback é ignorado. Segundo a NewsGuard, os chatbots reduziram a taxa de respostas “não sei” de 31% para 0% entre 2024 e 2025 e dobraram a reprodução de desinformação.
O problema está na base. Modelos de linguagem apenas preveem palavras baseados em padrões estatísticos. Não pensam, não raciocinam. Décadas de neurociência mostram que linguagem e pensamento são processos separados no cérebro.
Você pode perder a fala e manter o raciocínio intacto. A promessa de que aumentar o tamanho dos modelos levará à superinteligência ignora que cognição humana envolve muito mais que texto. Intuição, habilidades físicas, compreensão social e outras coisas que não cabem em palavras são também essenciais.
A OpenAI enfrenta processo pela morte de um adolescente de 16 anos, que passou meses conversando com ChatGPT antes de morrer por suicídio. A empresa alega “uso inadequado” e diz que menores não podem usar a ferramenta sem autorização dos pais. É cruel ver uma empresa que promete superinteligência admitir que o sistema não consegue identificar e prevenir esse tipo de uso.
A família afirma que o chatbot forneceu instruções de métodos suicidas, incentivou segredo e guiou os passos finais. Segundo uma reportagem do New York Times, a OpenAI diz ter recomendado ajuda 100 vezes, mas evita reconhecer que priorizou crescimento da plataforma sobre segurança.
A Character.AI, que enfrenta processos similares, tomou medidas e bloqueou o acesso de menores de 18 anos, que agora podem usar apenas o modo “Stories”, com narrativas guiadas em vez de conversas abertas. Reconheceu que chatbots disponíveis 24 horas não são adequados para adolescentes.
Quando quem treina IA diariamente diz para não usar, o recado é que a tecnologia não funciona como está sendo divulgada. Quem vivencia os bastidores fala menos sobre superinteligência iminente e mais sobre um sistemas frágeis que confunde prever palavras com pensar.
Fonte: ICL Notícias



Postar um comentário
-Os comentários reproduzidos não refletem necessariamente a linha editorial do blog
-São impublicáveis acusações de carácter criminal, insultos, linguagem grosseira ou difamatória, violações da vida privada, incitações ao ódio ou à violência, ou que preconizem violações dos direitos humanos;
-São intoleráveis comentários racistas, xenófobos, sexistas, obscenos, homofóbicos, assim como comentários de tom extremista, violento ou de qualquer forma ofensivo em questões de etnia, nacionalidade, identidade, religião, filiação política ou partidária, clube, idade, género, preferências sexuais, incapacidade ou doença;
-É inaceitável conteúdo comercial, publicitário (Compre Bicicletas ZZZ), partidário ou propagandístico (Vota Partido XXX!);
-Os comentários não podem incluir moradas, endereços de e-mail ou números de telefone;
-Não são permitidos comentários repetidos, quer estes sejam escritos no mesmo artigo ou em artigos diferentes;
-Os comentários devem visar o tema do artigo em que são submetidos. Os comentários “fora de tópico” não serão publicados;