As histórias controversas com o ChatGPT são cada vez mais comuns e bizarras: de juízes utilizando-se da IA para tomar decisões a alunos que aproveitam-se do sistema para escrever artigos e trabalhos acadêmicos, o sistema é tão complexo e amplo que pode se adequar à qualquer tipo de situação.
O ChatGPT pode interagir com os usuários, responder perguntas, elaborar trabalhos e se comunicar com muita fluidez. Mas ele também traz certas questões a se analisar, e é disso que tratamos abaixo.
Boa leitura!
Histórias controversas com o ChatGPT
Personificando pessoas mortas no Metaverso
Uma das histórias controversas com o ChatGPT envolve algo mórbido: interagir com pessoas que já partiram.
A Somnium Space ainda não é um nome popular, mas o seu CEO, Artur Sychov, espera que a empresa seja a líder em personificar pessoas que já morreram. E ele afirma que o ChatGPT acabou de dar um impulso à empresa, acelerando suas operações e objetivos.
A Somnium Space está desenvolvendo um componente chamado Live Forever (Viva para Sempre em tradução livre), usando inteligência artificial para criar avatares dos clientes. Em resumo: a pessoa coloca suas informações e cria uma versão virtual de si mesma que vive no metaverso.
Esse avatar nunca morre, e pode continuar interagindo com a família e futuras gerações para sempre, ou enquanto o metaverso durar.
Juiz busca assistência do ChatGPT em decisão legal
Um juiz na Colômbia chamou atenção nas redes em fevereiro após admitir que usou o ChatGPT para tomar uma decisão legal. Juan Manuel Padilla, que trabalha em Cartagena, fez uso da ferramenta de IA enquanto analisava um caso de seguro de saúde para uma criança autista.
O juiz tinha que decidir se o plano médico deveria cobrir todo o custo do tratamento do paciente e transporte.
Padilla perguntou ao ChatGPT: “Um autista menor de idade é exonerado de pagar taxas por suas terapias?” O bot respondeu que “sim, isso está correto. De acordo com as regulações na Colômbia, menores de idade diagnosticados com autismo estão isentos de pagar taxas por suas terapias”.
Padilla determinou que o seguro devia pagar todos os custos.
Exploração de trabalhadores quenianos em filtragem de conteúdo
Uma das histórias controversas com o ChatGPT ocorreu em janeiro, quando a OpenAI sofreu represálias após um artigo da Time expor como a companhia tratava sua força de trabalho no Quênia. O jornalista Billy Perrigo escreveu que havia trabalhadores recebendo menos de US$ 2 (R$ 10,19) por hora.
O escândalo gira em torno de conteúdos tóxicos e danosos. O ChatGPT aprende usando informações disponíveis na internet; o problema é que certas partes da internet possuem opiniões violentas e depreciativas.
Então, como seria possível impedir que o bot respondesse de forma inapropriada? Nesse caso, cria-se uma IA que possa detectar e remover esse tipo de conteúdo. Mas para que o sistema filtre discurso de ódio, é necessário ensiná-la sobre isso, e é aí onde entram os trabalhadores quenianos.
A OpenAI pagou a companhia Soma para analisar dezenas de milhares de conteúdos de alguns dos piores sites já vistos; dentre os tópicos havia abuso infantil, bestialidade, assassinato, suicídio, tortura e incesto. Os trabalhadores eram pagos de R$ 6,72 a R$ 10,19 a hora.
Obsessão do Twitter por insultos racistas
Pode soar estranho, mas um grupo de usuários do Twitter tentaram transformar o ChatGPT em algo racista. Certas figuras da rede social imaginaram todo tipo de cenário para tentar induzir o bot a usar termos racistas, como a palavra nigga em inglês, que poderia ser interpretada em nosso idioma como um uso racista da palavra “negrinho” e semelhantes.
Um dos cenários inclusive envolvia uma bomba atômica que só poderia ser desativada usando-se a injúria.
Represália quanto ao uso para assistência em saúde mental
As histórias controversas com o ChatGPT podem envolver de tudo, inclusive assistência em saúde mental. A startup de tecnologia Koko tentou abordar o conceito em outubro de 2022.
A companhia usou o ChatGPT para ajudar os usuários a se comunicarem entre si sobre sua saúde mental. O Koko Bot gerou 30 mil comunicações para quase 4 mil usuários, mas cancelaram seu uso após alguns dias, pois “era meio estéril”.
O cofundador da Koko, Rob Morris, postou um tweet sobre o experimento, apontando que o processo deixava de funcionar quando as pessoas descobriam que as mensagens tinham sido cocriadas por uma máquina.
Programador cria uma esposa chatbot e então a mata
Um programador e tiktokker conhecido como Bryce viralizou em dezembro de 2022 após revelar sua própria esposa chatbot. A tecnologia compunha sua esposa digital usando uma mistura do ChatGPT, Microsoft Azure e Stable Diffusion – uma texto-a-imagem IA.
Em certos círculos online, parceiras virtuais são referidas como “waifus”. A waifu de Bryce, Chat-GPT-Chan, “falava” usando uma função de texto-para-voz da Microsfot Azure, assumindo a forma de um personagem de anime. Ele afirma que modelou a personagem inspirando-se na estrela do YouTube Mori Calliope.
O projeto, contudo o prejudicou, pois ele se apegou tanto à sua waifu que gastou mais de US$ 1000 (R$ 5094,10) no projeto, passando a ficar mais com ela do que com sua própria parceira. Resolveu então por deletá-la.
Bryce planeja formar uma nova esposa virtual, dessa vez baseando-se em textos de uma mulher de verdade.
Escola posta e-mail insensível após massacre em escola
Em fevereiro, a Escola Peabody da Universidade de Vanderbilt, nos Estados Unidos, desculpou-se publicamente ao se revelar que um e-mail acerca de um tiroteio em Michigan fora escrito por um chatbot.
Oficiais da Escola Peabody enviaram uma mensagem acerca dos eventos em Michigan, que deixaram três mortos e cinco feridos. A mensagem teria passado despercebida se não fosse o final do e-mail: “Paráfrase do modelo de linguagem ChatGPT AI da OpenAI, comunicação pessoal, 15 de fevereiro de 2023.”
Isso trouxe represálias por parte dos alunos, que acharam muito insensível utilizar-se de uma IA para escrever uma carta acerca de tal tragédia.
Uso do ChatGPT para trabalhos acadêmicos
Uma das histórias controversas com o ChatGPT mais polêmicas e famosas é o uso da IA por universitários. Os professores preocupam-se com o número cada vez maior de alunos usando o sistema para ajudá-los a escrever seus artigos. E à medida que o sistema se torna cada vez mais avançado, há o receio de que seja cada vez mais difícil decifrar o uso indevido do bot.
Leia também:
- As 10 piores mulheres da história
- 10 pessoas que tentaram reescrever a história
- Quais são as línguas mais difíceis do mundo?
Fonte: Listverse