Início Tecnologia Aqui está uma nova maneira de perder uma discussão online: o apelo...

Aqui está uma nova maneira de perder uma discussão online: o apelo à IA

17
0

Ao longo dos últimos 20 anos como jornalista, vi e escrevi sobre uma série de coisas que mudaram irrevogavelmente a minha visão da humanidade. Mas foi só recentemente que algo me causou um curto-circuito.

Estou falando de um fenômeno que você também deve ter notado: o apelo à IA.

Há uma boa chance de você ter visto alguém usando o apelo à IA online, e até mesmo ouvido isso em voz alta. É uma falácia lógica que pode ser resumida em três palavras: “Perguntei ao ChatGPT”.

  • Eu perguntei ao ChatGPT para me ajudar a descobrir minha doença misteriosa.
  • Eu perguntei ao ChatGPT para me dar conselhos amorosos difíceis, eles acham que eu preciso mais para crescer como pessoa.
  • Eu usei ChatGPT para criar uma rotina de pele personalizada.
  • ChatGPT forneceu um argumento que o afastamento relacional de Deus (isto é, a condenação) é necessariamente possível, com base em princípios lógicos e metafísicos abstratos, ou seja, o Meio Excluído, sem apelar à natureza dos relacionamentos, ao amor genuíno, ao livre arbítrio ou ao respeito.
  • Existem tantas agências governamentais que nem o governo sabe quantas existem! [based entirely on an answer from Grok, which is screenshotted]

Nem todos os exemplos usam esta formulação exata, embora seja a maneira mais simples de resumir o fenômeno. As pessoas podem usar o Google Gemini, ou o Microsoft Copilot, ou sua namorada chatbot, por exemplo. Mas o elemento comum é depositar confiança reflexiva e injustificada em um sistema técnico que não foi projetado para fazer o que você está pedindo, e então esperar que outras pessoas também o aceitem.

Se eu ainda comentasse em fóruns, esse seria o tipo de coisa que eu criticaria

E sempre que vejo este apelo à IA, o meu primeiro pensamento é o mesmo: Você é estúpido ou algo assim? Já há algum tempo, “Eu perguntei ao ChatGPT” como frase tem sido suficiente para me fazer desistir – eu não tinha mais interesse no que aquela pessoa tinha a dizer. Eu arquivei isso mentalmente junto com as falácias lógicas, você conhece aquelas: o espantalho, o ad hominem, o galope de Gish e o não verdadeiro escocês. Se eu ainda comentasse em fóruns, esse seria o tipo de coisa que eu criticaria. Mas o apelo à IA está começando a acontecer com tanta frequência que vou cerrar os dentes e tentar entendê-lo.

Vou começar com o mais simples: o exemplo de Musk – o último – é um homem anunciando seu produto e fazendo propaganda simultaneamente. Os outros são mais complexos.

Para começar, acho esses exemplos tristes. No caso da doença misteriosa, o escritor recorre ao ChatGPT em busca do tipo de atenção – e respostas – que não conseguiu obter de um médico. No caso do conselho do “amor duro”, o consulente diz que está “chocado e surpreso com a precisão das respostas”, embora as respostas sejam todas bobagens genéricas que você pode obter em qualquer programa de rádio por telefone, direto para baixo. para “aplicativos de namoro não são o problema, seu medo de vulnerabilidade é”. No caso da rotina de pele, o escritor poderia muito bem ter conseguido uma em uma revista feminina – não há nada especialmente personalizado nisso.

Quanto ao argumento sobre a condenação: o inferno é real e eu já estou aqui.

O texto do ChatGPT parece confiante e as respostas são detalhadas. Isto não é o mesmo que estar certo, mas tem a significantes de estar certo

Sistemas como o ChatGPT, como qualquer pessoa familiarizada com grandes modelos de linguagem sabe, prevêem respostas prováveis ​​a prompts gerando sequências de palavras com base em padrões em uma biblioteca de dados de treinamento. Há uma enorme quantidade de informação criada pelo homem online, e por isso estas respostas são frequentemente correctas: pergunte “qual é a capital da Califórnia”, por exemplo, e ele responderá com Sacramento, mais outra frase desnecessária. (Entre minhas pequenas objeções ao ChatGPT: suas respostas soam como um aluno da sexta série tentando atingir uma contagem mínima de palavras.) Mesmo para consultas mais abertas como as acima, o ChatGPT pode construir uma resposta que pareça plausível com base em dados de treinamento. Os conselhos sobre amor e pele são genéricos porque inúmeros escritores online deram conselhos exatamente assim.

O problema é que ChatGPT não é confiável. O texto do ChatGPT parece confiante e as respostas são detalhadas. Isto não é o mesmo que estar certo, mas tem a significantes de estar certo. Nem sempre é obviamente incorreto, especialmente quando se trata de respostas – como acontece com os conselhos amorosos – onde o consulente pode projetar facilmente. O viés de confirmação é real e verdadeiro, meu amigo. Já escrevi sobre os tipos de problemas que as pessoas encontram quando confiam em um sistema de previsão automática com questões factuais complexas. No entanto, apesar da frequência com que estes problemas surgem, as pessoas continuam a fazer exactamente isso.

Como estabelecer confiança é uma questão espinhosa. Como jornalista, gosto de mostrar o meu trabalho – digo quem me disse o que e quando, ou mostro o que fiz para tentar confirmar que algo é verdade. Com os falsos perdões presidenciais, mostrei quais fontes primárias usei para que você mesmo pudesse fazer uma consulta.

Mas a confiança também é uma heurística, que pode ser facilmente abusada. Nas fraudes financeiras, por exemplo, a presença de um fundo de capital de risco específico numa ronda pode sugerir a outros fundos de capital de risco que alguém já realizou a devida diligência exigida, levando-os a não realizarem eles próprios o processo intensivo. Um apelo à autoridade baseia-se na confiança como uma heurística – é uma medida prática, embora por vezes falha, que pode poupar trabalho.

Há quanto tempo ouvimos os capitães da indústria dizerem que a IA será capaz de pensar em breve?

A pessoa que pergunta sobre a doença misteriosa está apelando à IA porque os humanos não têm respostas e estão desesperados. A coisa dos cuidados com a pele parece pura preguiça. Com a pessoa pedindo conselhos amorosos, eu só me pergunto como eles chegaram ao ponto em suas vidas em que não tinham nenhuma pessoa humana para pedir – como é que eles não tinham um amigo que os observasse interagir com outras pessoas. Com a questão do inferno, há um cheiro de “a máquina considerou a condenação lógica”, o que é simplesmente uma merda. embaraçoso.

O apelo à IA é diferente das histórias “Eu perguntei ao ChatGPT” sobre, digamos, fazer com que ele conte os “r”s em “morango” – não é testar os limites do chatbot ou interagir com ele de alguma outra forma autoconsciente . Talvez haja duas maneiras de entendê-lo. A primeira é “Perguntei à caixa de resposta mágica e ela me disse”, em um tom muito parecido com “bem, o Oráculo do Delphi disse…”. A segunda é: “Perguntei ao ChatGPT e não posso ser responsabilizado se estiver errado .”

O segundo é preguiçoso. O primeiro é alarmante.

Sam Altman e Elon Musk, entre outros, partilham a responsabilidade pelo apelo à IA. Há quanto tempo ouvimos os capitães da indústria dizerem que a IA será capaz de pensar em breve? Que superará os humanos e tomará nossos empregos? Há uma espécie de lógica bovina em jogo aqui: Elon Musk e Sam Altman são muito ricos, então devem ser muito inteligentes – eles são mais ricos do que você e, portanto, são mais espertos do que você. E eles estão lhe dizendo que a IA pode pensar. Por que você não acreditaria neles? E além disso, o mundo não é muito mais legal se eles estiverem certos?

Infelizmente para o Google, o ChatGPT é uma bola de cristal mais bonita

Há também uma grande recompensa por apelar à história da IA; A história fútil do chatbot do Bing de Kevin Roose é um exemplo disso. Claro, é crédulo e piegas – mas ver os especialistas falharem no teste do espelho tende a chamar a atenção das pessoas. (Tanto é verdade, que Roose escreveu mais tarde uma segunda história onde perguntava aos chatbots o que pensavam dele.) Nas redes sociais, há um incentivo para colocar o apelo à IA na frente e no centro do envolvimento; há todo um culto de esquisitos influenciadores de IA que ficam mais do que felizes em impulsionar essas coisas. Se você fornecer recompensas sociais para comportamentos estúpidos, as pessoas se envolverão em comportamentos estúpidos. É assim que funcionam as modas.

Há mais uma coisa e é o Google. A Pesquisa Google começou como um diretório on-line excepcionalmente bom, mas durante anos o Google incentivou vê-lo como uma bola de cristal que fornece a única resposta verdadeira sob comando. Esse era o objetivo dos Snippets antes do surgimento da IA ​​generativa e, agora, a integração das respostas da IA ​​deu vários passos adiante.

Infelizmente para o Google, o ChatGPT é uma bola de cristal mais bonita. Digamos que eu queira substituir a borracha dos limpadores de para-brisa. Um retorno da Pesquisa Google para “substituir limpador de pára-brisa de borracha” me mostra uma grande variedade de lixo, começando com a visão geral da IA. Ao lado está um vídeo do YouTube. Se eu rolar mais para baixo, há um trecho; ao lado há uma foto. Abaixo estão sugestões de pesquisas, depois mais sugestões de vídeos e, em seguida, respostas do fórum do Reddit. Está ocupado e confuso.

Agora vamos para o ChatGPT. Perguntando “Como substituo o limpador de para-brisa de borracha?” me dá um layout mais limpo: uma resposta com subtítulos e etapas. Não tenho nenhum link imediato para as fontes e nenhuma maneira de avaliar se estou recebendo bons conselhos – mas tenho uma resposta clara e confiável em uma interface limpa. Se você não sabe ou não se importa como as coisas funcionam, o ChatGPT parece melhor.

Acontece que o futuro foi previsto por Jean Baudrillard o tempo todo

O apelo à IA é o exemplo perfeito da lei de Arthur Clarke: “Qualquer tecnologia suficientemente avançada é indistinguível da magia”. A tecnologia por trás de um LLM é suficientemente avançada porque as pessoas que a utilizam não se preocuparam em entendê-la. O resultado foi um gênero de notícias totalmente novo e deprimente: as pessoas dependem da IA ​​generativa apenas para obter resultados inventados. Também acho deprimente que não importa quantos deles existam – sejam perdões presidenciais falsos, citações falsas, jurisprudência inventada ou citações de filmes fabricadas – eles parecem não causar nenhum impacto. Inferno, até mesmo a coisa da cola na pizza não parou “Eu perguntei ao ChatGPT”.

O fato de esta ser uma máquina de besteira – no sentido filosófico – não parece incomodar muitos consulentes. Um LLM, por sua natureza, não pode determinar se o que está dizendo é verdadeiro ou falso. (Pelo menos um mentiroso sabe qual é a verdade.) Não tem acesso ao mundo real, apenas a representações escritas do mundo que “vê” através de fichas.

Portanto, o apelo à IA é o apelo à significantes de autoridade. ChatGPT parece confiante, mesmo quando não deveria, e suas respostas são detalhadas, mesmo quando estão erradas. A interface está limpa. Você não precisa decidir em qual link clicar. Alguns caras ricos disseram que isso seria mais inteligente do que você em breve. UM New York Times repórter está fazendo exatamente isso. Então, por que pensar quando o computador pode fazer isso por você?

Não consigo dizer o quanto disso é confiança despreocupada e quanto é puro niilismo de luxo. De certa forma, “o robô me dirá a verdade” e “ninguém jamais consertará nada e o Google está errado de qualquer maneira, então por que não confiar no robô” equivalem à mesma coisa: falta de fé no esforço humano, desprezo por conhecimento humano e a incapacidade de confiar em nós mesmos. Não posso deixar de sentir que isso está indo para algum lugar muito sombrio. Pessoas importantes estão falando em proibir a vacina contra a poliomielite. Moradores de Nova Jersey apontam lasers para aviões durante o período de viagens mais movimentado do ano. Toda a eleição presidencial foi inundada de teorias da conspiração. Além disso, não é mais divertido se os alienígenas forem reais, se houver uma conspiração secreta governando o mundo e se a IA for realmente inteligente?

Nesse contexto, talvez seja fácil acreditar que existe uma caixa de resposta mágica no computador, e ela é totalmente confiável, assim como nossa velha amiga, a Sibila, em Delphi. Se você acredita que o computador tem conhecimento infalível, você está pronto para acreditar em qualquer coisa. Acontece que o futuro foi previsto por Jean Baudrillard o tempo todo: quem precisa da realidade quando temos significantes? O que a realidade já fez por mim, afinal?

Fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui