BLOG PROFORM

Desde 1998
criando soluções

ChatGPT anuncia revolução intelectual; leia análise de Eric Schmidt e Henry Kissinger

Por Henry Kissinger, Eric Schmidt e Daniel Huttenlocher

A inteligência artificial generativa apresenta um desafio filosófico e prático numa escala não experimentada desde o início do Iluminismo.

THE WALL STREET JOURNAL – Uma nova tecnologia propõe transformar o processo cognitivo humano, reorganizando-o de uma forma não vista desde a invenção da prensa de tipos móveis.

A tecnologia que imprimiu a Bíblia de Gutenberg em 1455 tornou o pensamento humano abstrato comunicável de modo geral e com celeridade.

Mas a atual nova tecnologia inverte esse processo. Enquanto a prensa de tipos móveis levou a uma profusão do pensamento humano moderno, a nova tecnologia alcança sua essência e formulação.

No processo, cria uma lacuna entre o conhecimento humano e a compreensão humana.

Se quisermos transitar de forma bem-sucedida por essa transformação, será necessário desenvolver novos conceitos do pensamento humano e da interação com as máquinas. Este é o desafio fundamental da Era da Inteligência Artificial.

A nova tecnologia é conhecida como inteligência artificial (IA) generativa; a sigla GPT refere-se a transformador generativo pré-treinado.

ChatGPT, desenvolvido no laboratório de pesquisa da OpenAI, agora é capaz de conversar com humanos. Conforme suas capacidades aumentam, elas vão redefinir o conhecimento humano, acelerar mudanças no tecer da nossa realidade e reorganizar a política e a sociedade.

A IA generativa apresenta um desafio filosófico e prático numa escala não experimentada desde o início do Iluminismo.

prensa de tipos móveis permitiu que os estudiosos repetissem rapidamente as descobertas uns dos outros e as compartilhassem.

Uma consolidação e propagação de informação sem precedentes gerou o método científico.

O que era inacessível tornou-se o ponto de partida para acelerar a pesquisa. A interpretação medieval do mundo baseada na fé religiosa foi gradualmente enfraquecida.

As profundezas do universo podiam ser exploradas até que novos limites da compreensão humana fossem alcançados.

A IA generativa abrirá caminhos igualmente revolucionários para a razão humana e novos horizontes para o conhecimento consolidado. Entretanto, há diferenças categóricas.

O conhecimento do Iluminismo era alcançado de forma progressiva, passo a passo, com cada um desses passos sendo verificável e possível de ser ensinado.

Os sistemas habilitados para IA começam de forma oposta.

Eles podem armazenar e condensar uma quantidade enorme de informações existentes, no caso do ChatGPT, boa parte do material textual na internet, um grande número de livros e bilhões de outros itens. Ter esse volume de informação e sintetizá-lo está além da capacidade humana.

Métodos sofisticados de IA produzem resultados sem explicar por que ou como funciona seu processo.

O computador com GPT funciona por meio de um comando dado por um ser humano. Recorrendo a aprendizado de máquina, responde em texto compreensível em segundos.

Ele é capaz de fazer isso porque tem representações pré-geradas da quantidade enorme de dados com os quais foi treinado.

Como o processo pelo qual ele criou essas representações foi desenvolvido por aprendizado de máquina, que reflete padrões e conexões sobre as quantidades enormes de texto, as fontes exatas e as razões das características específicas de qualquer representação permanecem desconhecidas.

Por qual processo a aprendizado de máquina armazena seu conhecimento, condensa-o e o consulta também continua sendo uma incógnita.

Independentemente de esse processo ser descoberto algum dia, o mistério associado ao aprendizado de máquina desafiará a cognição humana por um prazo indefinido.

Eric Schmidt, ex-CEO do Google: “O mistério associado ao aprendizado de máquina desafiará a cognição humana por um prazo indefinido”

As habilidades da IA não são estáticas, mas se expandem de modo exponencial à medida que a tecnologia avança.

Recentemente, a complexidade dos modelos de IA vem dobrando em intervalos de poucos meses.

Portanto, os sistemas de IA generativa têm capacidades que permanecem desconhecidas até mesmo para seus inventores. Com cada novo sistema de IA, eles estão desenvolvendo novas capacidades sem entender sua origem ou destino.

Como consequência, nosso futuro agora tem um elemento completamente novo de mistério, risco e surpresa.

A ciência do Iluminismo reunia certezas, a nova IA gera um amontoado de ambiguidades.

A ciência do século das luzes evoluiu tornando os mistérios explicáveis, delineando os limites do conhecimento humano e da compreensão humana conforme eles mudavam.

As duas capacidades avançavam simultaneamente: a hipótese era a compreensão pronta para se tornar conhecimento; o raciocínio indutivo era o conhecimento se transformando em compreensão.

Na era da IA, os enigmas são resolvidos por processos que continuam desconhecidos. Este paradoxo desnorteador revela mistérios, porém também os torna inexplicáveis.

Inerentemente, a IA de grande complexidade promove o conhecimento humano, mas não a compreensão humana – um fenômeno contrário a quase toda a modernidade pós-iluminismo.

Entretanto, ao mesmo tempo, a IA, quando associada à razão humana, é um meio de descoberta mais poderoso do que a razão humana sozinha.

A IA de grande complexidade promove o conhecimento humano, mas não a compreensão humana – um fenômeno contrário a quase toda a modernidade pós-iluminismo

A diferença fundamental entre o século das luzes e a era da IA não é, portanto, tecnológica, mas cognitiva. Depois do Iluminismo, a filosofia acompanhou a ciência.

Novos dados confusos e muitas vezes conclusões contraintuitivas, dúvidas e inseguranças foram dissipados por explicações detalhadas da experiência humana.

A IA generativa está igualmente preparada para criar uma nova forma de consciência humana. No entanto, até agora, a oportunidade existe em cores para as quais não temos um espectro e em direções para as quais não temos bússola.

Nenhuma liderança política ou filosófica foi preparada para explicar e orientar essa nova relação entre homem e máquina, deixando a sociedade relativamente à deriva.

O ChatGPT é um exemplo do que é conhecido como um modelo amplo de linguagem (LLM), que pode ser usado para gerar texto semelhante ao criado por um humano.

O GPT é um tipo de modelo que pode ser treinado automaticamente com quantidades enormes de texto sem a necessidade de supervisão humana.

Os desenvolvedores do ChatGPT alimentaram o software com uma quantidade gigantesca de conteúdo textual do mundo digital. O poder computacional permite que o modelo grave padrões e conexões.

A capacidade dos modelos de linguagem ampla para gerar texto semelhante ao criado por um humano foi uma descoberta quase acidental.

Esses modelos são treinados para serem capazes de prever a próxima palavra numa frase, o que é útil em tarefas como preenchimento automático para enviar mensagens de texto ou pesquisar na web.

Entretanto, se constatou que esses modelos também têm a capacidade inesperada de criar parágrafos, artigos e, com o tempo, quem sabe até mesmo livros altamente bem estruturados.

Henry Kissinger foi secretário de Estado (1973-77) e conselheiro de segurança nacional da Casa Branca (1969-75)

O ChatGPT é ainda mais especializado do que um modelo amplo de linguagem básico, recorrendo ao feedback dos humanos para ajustar o modelo de modo a gerar um texto de conversa que soe mais natural, assim como para tentar conter sua tendência para respostas inadequadas (um desafio considerável para modelos de linguagem ampla).

O ChatGPT converte instantaneamente suas representações em respostas únicas. A impressão final para um humano familiarizado com a tecnologia é que a IA está relacionando compilações fixas de fatos com conceitos dinâmicos.

As respostas, declarações e observações do ChatGPT surgem sem uma explicação de onde vieram e sem um autor identificável.

À primeira vista, o ChatGPT não tem nenhuma motivação ou preconceitos perceptíveis. Suas mensagens são complexas, mas seu trabalho é surpreendentemente rápido: em questão de segundos, ele consegue dar respostas que explicam de forma coerente um tema nada simples. Não são apenas respostas copiadas de um texto na memória do computador.

Elas são geradas outra vez por um processo que os humanos não são capazes de repetir. O software é capaz de incorporar hipóteses e deduções psicológicas não óbvias.

Ele pode priorizar em meio a bilhões de dados e selecionar um conjunto único de 200 palavras que é mais relevante (ou parecerá mais relevante para um leitor humano).

Com suas próprias palavras, faz avaliações de probabilidade a respeito de resultados futuros, misturando informações de áreas distintas em uma resposta completa.

Ele parece aceitar opiniões contrárias, apresentando-as como simultaneamente compatíveis. Imita outra escrita sem copiá-la.

Apesar de o modelo não ter a capacidade de compreensão de um humano, o texto produzido por ele reflete uma essência subjacente da linguagem humana.

Perguntas

 

Pedimos ao próprio ChatGPT para explicar suas capacidades. Você é capaz de prever o futuro?

Não, ele respondeu. “Posso apenas dar informações e responder a perguntas com base nos dados com os quais fui treinado. Não tenho experiências pessoais ou consciência, por isso não sou capaz de fazer previsões sobre eventos futuros.”

Você pode fazer avaliações de probabilidade?

“Posso dar avaliações de probabilidade com base nos dados com os quais fui treinado. Por exemplo, se fui treinado com um grande conjunto de dados de padrões meteorológicos, posso ser capaz de avaliar a chance de um determinado tipo de clima ocorrer num lugar específico em um dia qualquer. Entretanto, é importante salientar que essas considerações de probabilidade são baseadas nos padrões e nas tendências dos dados e eles nem sempre refletem com exatidão os resultados do mundo real.”

Comando: escreva um breve ensaio seguindo a linha de pensamento de Henry Kissinger sobre o papel da inteligência artificial geral no controle internacional de armas.

A resposta começa: “Como estamos à beira de uma nova revolução tecnológica, a questão da inteligência artificial geral e seu papel no controle internacional de armas torna-se cada vez mais urgente. A inteligência artificial geral trará uma estabilidade sem precedentes à medida que os sistemas avançados assumirem o controle dos processos de tomada de decisão associados à dissuasão nuclear? Ou apresentará uma nova série de perigos, conforme o equilíbrio de poder global é alterado pelo desenvolvimento de máquinas altamente inteligentes?”

Fizemos perguntas ao ChatGPT relacionadas com temas de interesse atual, como o papel da Rússia na manutenção ou no enfraquecimento da estabilidade europeia. Ele deu respostas aparentemente fundamentadas e concisas em menos de um minuto, contrabalanceando informações contraditórias e respondendo detalhadamente sem parecer ter uma opinião.

Para o receptor, a IA generativa parece sobre-humana ou, no mínimo, bastante aprimorada cognitivamente. Para um usuário ingênuo, ela parece um bibliotecário erudito extremamente rápido e muito articulado, junto com um professor sábio.

Ela facilita a síntese e o questionamento dos conhecimentos do mundo de forma bem mais eficaz do que qualquer relação tecnológica ou humana existente, e faz isso com uma abrangência única. Sua capacidade de abarcar inúmeras áreas de conhecimento e imitar diversos aspectos do pensamento humano a torna polímata num grau que excede as ambições de qualquer grupo de humanos altamente qualificados.

Todas essas qualidades encorajam a aceitação incondicional de tudo o que o GPT gera e uma espécie de atmosfera mágica para o modo como funciona. Entretanto, ao mesmo tempo, tem a capacidade de desinformar os usuários humanos com afirmações erradas e completamente inventadas.

  O GPT gera e uma espécie de atmosfera mágica para o modo como funciona 

Poucos dias depois do lançamento do ChatGPT, mais de um milhão de pessoas se cadastraram para fazer perguntas a ele. Centenas de empresas estão trabalhando com tecnologias generativas e o investimento está chegando aos montes, levando as descobertas para o campo comercial. As fortes razões comerciais terão, num futuro próximo, prioridade sobre a reflexão de longo prazo a respeito de suas implicações.

Esses modelos maiores custam caro para treinar – mais de US$ 1 bilhão por modelo. Depois de treinados, milhares de computadores trabalham 24 horas por dia para operá-los. Operar um modelo pré-treinado é barato ao se comparar com o treinamento em si e requer apenas capital, em vez de capital e conhecimentos de informática.

Ainda assim, o pagamento para o uso exclusivo de um modelo de linguagem ampla permanece fora dos limites da maioria das empresas. É provável que os desenvolvedores desses modelos vendam assinaturas, desse modo, um único modelo atende as necessidades de milhares de indivíduos e empresas.

Como consequência, o número de modelos amplos de linguagem na próxima década talvez seja relativamente limitado. A criação e o controle desses modelos estarão bastante concentrados, ainda que seu poder de ampliar os esforços e o pensamento humanos se torne muito mais difundido.

A IA generativa não será usada apenas para modelos amplos de linguagem, mas também para construir muitos tipos de modelos, e o método vai se tornar cada vez mais variado e arcano. Ela vai afetar muitas áreas da atividade humana, por exemplo, a educação e a biologia.

Os diferentes modelos vão variar em seus pontos fortes e fracos. Suas capacidades – desde escrever piadas e pintar quadros até criar anticorpos – provavelmente continuarão a nos surpreender. Assim como o modelo de linguagem ampla desenvolveu um modelo de linguagem humana mais rico do que seus criadores previam, é possível que as IAs generativas em campos diversos aprendam mais do que as tarefas que lhe foram atribuídas exigem.

Questões filosóficas

 

Os grandes avanços nos problemas científicos tradicionais tornaram-se prováveis.

A importância a longo prazo da IA generativa transcende as implicações comerciais ou até mesmo avanços científicos não comerciais.

Ela não está apenas gerando respostas, está dando origem a questões filosoficamente profundas. Irá suscitar diplomacia e estratégia de segurança. No entanto, nenhum dos criadores desta tecnologia está dando atenção aos problemas que ela mesma criará. O governo dos Estados Unidos tampouco abordou as mudanças e as transformações fundamentais que se aproximam.

A aparente perfeição das respostas do modelo levará a um excesso de confiança em relação ao texto criado por ele. Isso já é um problema, conhecido como “viés de automação”, com programas de computador bem menos sofisticados.

É provável que o efeito seja particularmente intenso nos casos em que a IA gera textos à primeira vista confiáveis. Há grandes chances de o ChatGPT reforçar as predisposições atuais para a dependência de sistemas automatizados, reduzindo o fator humano.

A falta de referências bibliográficas nas respostas do ChatGPT dificulta discernir a verdade da desinformação. Já sabemos que pessoas mal-intencionadas estão impregnando a internet com um monte de “fatos” inventados, além de imagens e vídeos cada vez mais convincentes com o uso de deepfake, ou seja, no atual e futuro conjunto de dados para treinar o ChatGPT.

Como ele foi projetado para responder perguntas, às vezes inventa fatos para dar uma resposta aparentemente coerente. Esse fenômeno é conhecido entre os pesquisadores de IA como “alucinação” ou “papagaio estocástico”, no qual uma IA junta frases que parecem fazer sentido para um leitor humano, mas não são baseadas em fatos. O que provoca esses erros e como controlá-los ainda não foi descoberto.

Pedimos ao ChatGPT para dar “seis referências sobre o pensamento de Henry Kissinger em relação à tecnologia”. Ele criou uma lista de artigos supostamente escritos por Kissinger. Todos tinham temáticas e saídas plausíveis, e um deles era um título verdadeiro (embora sua data de publicação estivesse errada). O restante eram invenções convincentes. Possivelmente, os supostos títulos aparecem como frases isoladas na imensidão de “fatos” do GPT, o que ainda não temos como descobrir.

O ChatGPT não tem de cara uma personalidade evidente, embora usuários vez por outra o façam agir como se fosse seu irmão gêmeo malvado.

A falta de identificação de autoria pelo software torna mais difícil para os humanos intuir as tendências do ChatGPT do que julgar o ponto de vista político ou social de outro humano. Contudo, como a criação da máquina e os assuntos com os quais foi alimentada costumam ter uma origem humana, temos a predisposição de imaginar um raciocínio semelhante ao humano.

Na verdade, a IA está envolvida num processo não humano análogo à cognição. Embora percebamos a IA generativa em termos humanos, seus erros não são erros de um ser humano; ela comete erros de uma forma diferente da inteligência baseada no reconhecimento de padrões.

Os seres humanos não devem identificar essas falhas como erros. Seremos capazes de reconhecer seus preconceitos e imprecisões? Podemos desenvolver um modo de verificação capaz de questionar a veracidade e as limitações das respostas de um modelo, mesmo quando não sabemos as respostas previamente?

O conteúdo criado pela IA continua sendo difícil de se explicar. A verdade da ciência do Iluminismo era confiável porque cada passo dos processos experimentais replicáveis também era testado e, portanto, validado. A verdade da IA generativa terá de ser justificada por métodos completamente diferentes, e talvez nunca se torne absoluta do mesmo modo

Por isso o conteúdo criado pela IA continua sendo difícil de se explicar. A verdade da ciência do Iluminismo era confiável porque cada passo dos processos experimentais replicáveis também era testado e, portanto, validado.

A verdade da IA generativa terá de ser justificada por métodos completamente diferentes, e talvez nunca se torne absoluta do mesmo modo. Enquanto tentarmos igualar nossa compreensão ao nosso conhecimento, teremos de nos perguntar constantemente: o que sobre a máquina ainda não nos foi revelado? Que conhecimento desconhecido ela está escondendo?

É provável que o raciocínio da IA generativa mude com o tempo, de certo modo como parte do treinamento do modelo. Ela vai se tornar uma versão acelerada do progresso científico tradicional, acrescentando adaptações aleatórias ao próprio processo de descoberta.

Fazer a mesma pergunta ao ChatGPT durante um período de tempo pode gerar respostas diferentes. Variações discretas na formulação da frase que parecem sem importância numa primeira leitura podem provocar resultados drasticamente diferentes quando repetidas.

Atualmente, o ChatGPT está aprendendo com uma base de informações que termina em um ponto fixo no tempo. Em breve, seus desenvolvedores provavelmente vão permitir que ele receba novas contribuições, mais cedo ou mais tarde, consumindo um fluxo sem fim de dados em tempo real.

Se o investimento continuar a aumentar, há chances de o modelo ser retreinado com uma frequência cada vez maior. Isso fará crescer sua aceitação e precisão, mas obrigará os usuários a permitir uma margem cada vez maior para mudanças rápidas. Aprender com os resultados variáveis da IA generativa, em vez de exclusivamente a partir de textos escritos por humanos, pode distorcer o conhecimento humano convencional de hoje.

Mesmo que os modelos de IA generativa se tornem completamente interpretáveis e precisos, eles ainda levariam a desafios inerentes à conduta humana.

Os estudantes estão usando o ChatGPT para trapacear nas provas. A IA generativa poderia criar publicidades enviadas por e-mail que entopem as caixas de entrada e são indistinguíveis das mensagens de amigos ou de contatos profissionais.

Vídeos e anúncios criados por IA generativa apresentando bandeiras de campanha falsas podem dificultar a distinção entre posições políticas. Sinais sofisticados de fraude – inclusive marcas d’água que indicam a presença de conteúdo gerado por IA, que a OpenAI está considerando – talvez não sejam suficientes, eles precisam ser apoiados por um ceticismo humano elevado.

Sam Altman é fundador da OpenAI  

Algumas consequências poderiam ser inerentes. Na medida em que usarmos menos nossos cérebros e mais as máquinas, os humanos talvez percam algumas habilidades.

Nosso próprio pensamento crítico e as habilidades de escrita e desenho (dado o contexto de programas que criam imagens a partir de texto, como o Dall-E e o Stability.AI) talvez atrofiem. O impacto da IA generativa na educação poderia ser visto na queda da capacidade de futuros líderes de distinguir entre o que eles intuem e o que absorvem mecanicamente.

Ou talvez leve a líderes que aprendem seus métodos de negociação com máquinas e sua estratégia militar com avanços da IA generativa, no lugar de humanos, nos terminais de computadores.

Capacidade de contestação

 

É importante que os seres humanos desenvolvam a confiança e a capacidade de contestar a produção dos sistemas de IA.

Os médicos temem que os modelos de aprendizagem profunda usados para avaliar imagens de exames para fins de diagnóstico, entre outras tarefas, possam substituir sua atuação.

Em que momento os médicos não vão mais se sentir à vontade para questionar as respostas dadas por um software?

Conforme as máquinas conquistam mais capacidades humanas, do reconhecimento de padrões à síntese racional e ao pensamento multidimensional, elas talvez comecem a competir com o trabalho humano na administração do Estado, no direito e nas táticas de negócios.

Em algum momento, talvez surja algo semelhante à estratégia. Como os humanos podem interagir com a IA sem abrir mão de partes essenciais da estratégia para as máquinas? Com tais mudanças, o que acontece com as doutrinas aceitas?

É urgente que desenvolvamos uma dialética sofisticada que capacite as pessoas a contestar a interatividade da IA generativa, não apenas para justificar ou explicar suas respostas, mas para questioná-las.

Com ceticismo aprimorado, devemos aprender a analisar de forma metódica a IA e avaliar se, e em que medida, suas respostas são dignas de confiança. Isso exigirá uma mitigação consciente dos nossos preconceitos inconscientes, um treinamento rigoroso e uma prática copiosa.

A dúvida permanece: podemos aprender, com rapidez suficiente, a contestar em vez de obedecer? Ou, no fim, seremos obrigados a nos submeter? O que consideramos erros são parte intencional do projeto? E se surgir um fator de má-fé na IA?

Outra tarefa fundamental é refletir quais questões devem ser reservadas ao pensamento humano e quais podem ser arriscadas com os sistemas automatizados. Entretanto, mesmo com o desenvolvimento de maior ceticismo e da habilidade de questionar, o ChatGPT prova que a IA generativa agora é um tema conhecido por quase todos. Temos que ser cuidadosos com o que lhe solicitamos.

Os computadores são necessários para controlar volumes crescentes de dados. No entanto, as limitações cognitivas talvez impeçam os humanos de descobrir verdades escondidas nas informações do mundo. O ChatGPT tem uma capacidade de análise que do ponto de vista qualitativo é diferente daquela da mente humana.

O futuro, portanto, sugere uma colaboração não apenas com um tipo diferente de mecanismo técnico, porém com um tipo diferente de raciocínio – que pode ser racional sem ser sensato, confiável em um sentido, mas não em outro. É provável que essa dependência por si só precipite uma transformação na metacognição e na hermenêutica – a compreensão da compreensão – e nas percepções humanas do nosso papel e função.

O ChatGPT tem uma capacidade de análise que do ponto de vista qualitativo é diferente daquela da mente humana

Os sistemas de aprendizagem de máquina já superaram o conhecimento de qualquer ser humano. Em casos limitados, eles superaram o conhecimento da humanidade, transcendendo os limites do que consideramos cognoscível. Isso desencadeou uma revolução nas áreas onde tais avanços foram alcançados. A IA tem sido um divisor de águas no problema central da biologia de determinar a estrutura das proteínas e no qual matemáticos realizam comprovações, entre muitos outros.

À medida que os modelos passam de texto criado por um humano para contribuições mais abrangentes, há chances de as máquinas alterarem o tecer da própria realidade.

A teoria quântica postula que a observação cria a realidade. Antes da avaliação, nenhum estado é fixo e nem se pode dizer que algo existe. Se isso for verdade, e se as observações das máquinas também puderem determinar a realidade – e considerando que as observações dos sistemas de IA são apresentadas com rapidez sobre-humana –, a velocidade da evolução da definição da realidade provavelmente vai acelerar.

A dependência das máquinas determinará e, consequentemente, modificará o tecer da realidade, provocando um novo futuro que ainda não compreendemos e para o qual devemos preparar a análise e a liderança.

O uso da nova forma de inteligência acarretará algum nível de aceitação de seus efeitos em nossa autopercepção, percepção da realidade e da própria realidade. A forma de definir e identificar isso terá de ser abordada em todos os contextos concebíveis.

Algumas áreas talvez prefiram se virar apenas com a mente humana – embora isso exija um certo grau de abnegação sem precedentes históricos e seja complicado pela competitividade dentro e entre as sociedades.

Conforme a tecnologia se torna mais compreensível para um número maior de pessoas, ela terá um impacto profundo nas relações internacionais. A não ser que a tecnologia para o conhecimento seja compartilhada universalmente, o imperialismo poderia focar em adquirir e monopolizar dados para ter acesso aos avanços mais recentes de IA.

Os modelos podem produzir resultados diferentes dependendo dos dados reunidos. As evoluções contrastantes das sociedades talvez aumentem de acordo com as bases de conhecimento cada vez mais divergentes e, portanto, na percepção dos desafios.

Até agora, a maior parte da reflexão sobre essas questões presumiu a congruência entre os propósitos humanos e as estratégias das máquinas. Mas e se a interação entre a humanidade e a IA generativa não ocorrer dessa forma? E se um lado considerar as intenções do outro de má-fé?

A chegada de um instrumento incognoscível e aparentemente onisciente, capaz de alterar a realidade, pode desencadear um retorno da religiosidade mística.

A possibilidade de obediência de um grupo a uma autoridade cujo raciocínio é em grande medida inacessível a seus súditos tem sido vista de tempos em tempos na história da humanidade, talvez de forma mais drástica e recente na submissão de populações inteiras sob o slogan de ideologias de ambos os lados do espectro político.

Uma terceira via de compreensão do mundo pode surgir, uma que não seja nem a razão humana, nem a fé. O que acontece com a democracia num mundo assim?

A chegada de um instrumento incognoscível e aparentemente onisciente, capaz de alterar a realidade, pode desencadear um retorno da religiosidade mística

É provável que a liderança se concentre nas mãos de menos pessoas e instituições que controlam o acesso ao número limitado de máquinas capazes de sintetizar a realidade com qualidade. Devido ao enorme custo de sua capacidade de processamento, as máquinas mais eficientes da sociedade talvez fiquem nas mãos de um pequeno grupo no país e sob o controle de algumas superpotências internacionais.

Depois da fase de transição, os modelos mais antigos vão ficar mais baratos e uma disseminação do poder pela sociedade e entre os países talvez se inicie.

Uma liderança moral e estratégica revigorada será essencial. Sem princípios norteadores, a humanidade corre o risco de dominação ou anarquia, autoridade ilimitada ou liberdade niilista. A necessidade de relacionar grandes mudanças na sociedade com justificativas éticas e novas visões para o futuro surgirá num novo formato.

Se as máximas formuladas pelo ChatGPT não se traduzirem num esforço humano claramente identificável, uma alienação da sociedade e até mesmo uma revolução podem se tornar prováveis.

Sem fundamentos morais e intelectuais adequados, as máquinas usadas na governança poderiam controlar, em vez de ampliar, nossa humanidade e nos prender para sempre. Em um mundo como tal, a inteligência artificial pode amplificar a liberdade humana e superar desafios ilimitados.

Isso impõe certas necessidades para dominar o nosso futuro iminente. A confiança na IA exige melhorias em inúmeros graus de confiabilidade – na precisão e na segurança da máquina, no alinhamento dos objetivos da IA com as aspirações humanas e na responsabilização dos humanos que controlam a máquina.

Mas, mesmo que os sistemas de IA se tornem mais confiáveis do ponto de vista técnico, os humanos ainda precisarão encontrar maneiras novas, simples e acessíveis de compreender e, de modo crítico, contestar as estruturas, os processos e a produção dos sistemas de IA.

Futuro

 

É necessário estabelecer parâmetros para o uso responsável da IA, com variações baseadas no tipo de tecnologia e do contexto da utilização. Modelos de linguagem como o ChatGPT exigem limites para seus resultados. O ChatGPT precisa saber e deixar claro o que não sabe e não pode expressar.

Os humanos terão de aprender novas limitações. Os problemas que apresentamos para um sistema de IA devem ser compreendidos num nível responsável de abstração e conclusividade. Normas culturais sólidas, mais do que imposições legais, serão necessárias para conter nossa confiança nas máquinas como árbitros da realidade. Reafirmaremos nossa humanidade garantindo que as máquinas continuem sendo objetos.

A educação, em particular, terá de se adaptar. Uma pedagogia dialética que utilize a IA generativa pode permitir uma aprendizagem mais rápida e individualizada do que era possível no passado.

Os professores devem ensinar novas habilidades, inclusive modos responsáveis de diálogo entre homem e máquina. Basicamente, nossos sistemas educacionais e profissionais devem preservar uma visão dos humanos como criaturas morais, psicológicas e estratégicas singularmente capazes de realizar julgamentos abrangentes.

As máquinas vão evoluir muito mais depressa do que nossos genes, provocando deslocamentos internos e divergências internacionais. Precisamos responder com presteza compatível, em particular na filosofia e no conceitualismo, nacional e globalmente. A harmonia global precisará surgir, seja por percepção ou por catástrofe, como previu Immanuel Kant há três séculos.

Devemos incluir uma ressalva a essa previsão: o que acontece se essa tecnologia não puder ser completamente controlada? E se sempre houver formas de criar mentiras, imagens e vídeos falsos, e as pessoas nunca aprenderem a duvidar do que veem e ouvem?

Somos ensinados desde o nascimento a acreditar no que vemos e ouvimos, e isso pode não ser mais válido como consequência da IA generativa. Mesmo que as grandes plataformas, por convenção e regulamentação, trabalhem arduamente para sinalizar e classificar conteúdos inadequados, sabemos que o conteúdo visto não pode ser “desvisto”. A capacidade de gerenciar e controlar completamente os conteúdos distribuídos pelo mundo é um problema grave e ainda a ser solucionado.

As respostas que o ChatGPT dá a essas questões são evocativas apenas no sentido de suscitarem mais dúvidas do que conclusões. Por ora, temos uma conquista nova e espetacular que se destaca como uma glória para a mente humana como a IA. Ainda não desenvolvemos uma destinação para ela. Conforme nos tornamos Homo technicus, temos o dever de definir o propósito da nossa espécie. Cabe a nós dar as verdadeiras respostas.

* Kissinger foi secretário de Estado (1973-77) e conselheiro de segurança nacional da Casa Branca (1969-75). Schmidt foi CEO da Google (2001-11) e presidente do conselho administrativo do Google e de sua empresa controladora, a Alphabet (2011-17). Huttenlocher é diretor da Faculdade de Computação Schwarzman, do Instituto de Tecnologia de Massachusetts. Os autores agradecem a Eleanor Runde por sua pesquisa.

https://click.jornal.estadao.com.br/?qs=920d153aa5f029fdcd981928b1ef1dbd8d9afc45d6b2e4a19cc57a214562947d427b4c83a3165f4f097f581aec5ef6143d02255039c179888351b63f29da203d

GOSTOU DESTE CONTEÚDO?
COMPARTILHA!
Facebook
Twitter
LinkedIn
Email
WhatsApp