A próxima geração de inteligência artificial, pensando como um ser humano, mas, ainda, sem sabedoria

O texto de George Musser reflete uma visão filosófica e científica sobre a busca pela inteligência artificial. Ele argumenta que o verdadeiro objetivo dos pesquisadores não é criar máquinas que possam simplesmente realizar tarefas específicas, como derrotar um mestre de xadrez, mas sim desenvolver a chamada Inteligência Artificial Geral (AGI). A AGI seria uma forma de inteligência artificial que vai além da execução de tarefas pré-programadas, tendo uma adaptabilidade e criatividade semelhantes às dos seres humanos.

Musser sugere que o valor da inteligência artificial está em seu uso como um “espelho” que nos ajuda a entender melhor nossa própria inteligência e capacidades. A ideia é que, ao tentar replicar ou simular a inteligência humana, ganhamos novas perspectivas sobre como funcionam nossos processos cognitivos, nossa tomada de decisões e nossa criatividade.

Esse conceito de AGI se diferencia da IA tradicional ou específica, que é projetada para realizar tarefas restritas, como diagnósticos médicos ou reconhecimento facial. A AGI, por outro lado, poderia teoricamente aprender qualquer tarefa cognitiva humana, desde o processamento de linguagem até a resolução de problemas complexos, adaptando-se a novos desafios de maneira autônoma.

O debate sobre a AGI levanta questões éticas e filosóficas, pois a criação de uma inteligência artificial com capacidades humanas poderia impactar profundamente a sociedade, o trabalho e até mesmo a nossa concepção de humanidade.

O uso de inteligência artificial em filmes de ficção científica, como Jarvis em Homem de Ferro e NS-5 em I, Robot, sempre alimentou nossa imaginação sobre o futuro da IA. Agora, com o advento de tecnologias como o ChatGPT, essa visão futurista está se tornando uma realidade mais próxima, capturando a atenção global.

O ChatGPT, desenvolvido pela OpenAI, é um modelo avançado de chatbot capaz de entender e gerar linguagem humana, realizando tarefas que vão desde escrever textos até programar. Sua rápida adoção foi surpreendente: em menos de uma semana após o lançamento, já contava com mais de um milhão de usuários ativos, e dois meses depois, esse número ultrapassava 100 milhões, consolidando-o como um fenômeno na área de inteligência artificial.

Por que o ChatGPT se tornou tão popular?

Xue Lan, da Universidade de Tsinghua, explica que a principal razão para esse sucesso é a capacidade do ChatGPT de atender às necessidades fundamentais de comunicação humana, oferecendo respostas coerentes e lógicas que superam os sistemas tradicionais de IA. Wang Hongguang, da Universidade de Pequim, destaca que a ferramenta vai além da simples busca de informações, refinando grandes quantidades de dados e transformando-os em soluções ou respostas organizadas.

Embora impressionante, o ChatGPT também apresenta limitações. Ele admite, por exemplo, que seu conhecimento é limitado após 2021 e que pode produzir informações imprecisas. Apesar disso, o consenso entre especialistas é que a IA não deve ser vista como uma substituta para humanos, mas como um assistente capaz de aumentar a eficiência e facilitar tarefas complexas.

“Em primeiro lugar, ele atende a uma demanda social significativa.” Xue Lan, reitor do Schwarzman College na Universidade de Tsinghua, explica que o sucesso do ChatGPT se deve à sua capacidade de oferecer diálogos interativos e respostas coerentes e lógicas, suprindo uma das necessidades fundamentais da sociedade moderna: a comunicação. Diferente dos sistemas de IA tradicionais, suas respostas flexíveis e naturais quebram os moldes padronizados e atraem o interesse das pessoas ao estimular a curiosidade humana.

Wang Hongguang, diretor executivo do Centro de Pesquisa Estratégica da China, complementa, afirmando que o ChatGPT é capaz de processar as vastas “reservas de dados” de mecanismos de busca, como Google e Baidu, e organizá-las em informações coerentes e em formato de soluções. Segundo ele, “esse é um avanço significativo” ao transformar informações dispersas em conhecimento aplicado de forma lógica e útil.

O fenômeno global do ChatGPT vai além de questões financeiras. Xue Lan destaca que o verdadeiro impacto da tecnologia está em sua capacidade de “tocar no centro das necessidades humanas”, trazendo à tona o “queijo” da sociedade: a criatividade e a interação.

A inteligência artificial, segundo alguns especialistas, pode ser dividida em IA analítica e IA generativa. Enquanto a IA analítica busca padrões a partir de dados existentes, a IA generativa, como o ChatGPT, cria novos conteúdos. Ao interagir de forma contínua com os usuários, ela implementa com eficiência tarefas de processamento de linguagem natural, sendo altamente aderente às necessidades do usuário, ao mesmo tempo em que contribui para novos conteúdos criativos.

O impacto do ChatGPT no futuro da IA

Wang Hongguang defende que ainda não há necessidade de impor limites rígidos à IA no nível atual, embora a regulação seja inevitável conforme a tecnologia avança. A preocupação central é que, se a IA continuar a assumir funções criativas humanas, podemos perder nossa capacidade de inovar.

Em última análise, o equilíbrio entre a inovação tecnológica e a regulação será fundamental para garantir que a IA beneficie a humanidade sem comprometer nossa criatividade. O próprio ChatGPT faz uma analogia instigante: “O problema que estou resolvendo agora é como fazer farinha, mas fazer um pão delicioso ainda requer a sabedoria e a experiência humana.”

Com essa analogia, o ChatGPT nos lembra que, embora a tecnologia avance, o toque humano permanece essencial na criação de algo verdadeiramente significativo.

Em 2020, o jornal britânico The Guardian pediu ao ChatGPT que escrevesse uma reportagem. Embora o texto gerado fosse conciso e claro, ele apresentava uma grande limitação: a falta de verificação. Isso trouxe à tona uma questão central sobre a inteligência artificial: ela poderia substituir os humanos em atividades complexas, como o jornalismo?

Segundo Wang Hongguang, o surgimento do ChatGPT não é disruptivo nem o coloca como um “substituto” das pessoas. Em vez disso, ele age como um “assistente” que complementa o trabalho humano em diversas áreas da vida.

Xue Lan, por sua vez, destacou que o ChatGPT pode melhorar a eficiência no trabalho, facilitando tarefas cotidianas. Além disso, pode ser adaptado para diversas aplicações, como na redação de documentos jurídicos, criação de conteúdo publicitário ou geração de páginas web. Ele também terá impacto significativo em áreas como programação e ensino superior, desafiando o pensamento tradicional e as habilidades necessárias nessas indústrias.

Atualmente, muitas revistas acadêmicas já proíbem ou limitam o uso do ChatGPT para a redação de artigos, argumentando que a IA não pode substituir os autores na interpretação de dados ou na formulação de conclusões. Instituições de ensino ao redor do mundo, como na França, Estados Unidos e Austrália, também implementaram restrições para evitar trapaças e para incentivar o pensamento crítico e independente dos alunos.

Assim como outras tecnologias avançadas, a IA pode precisar de “limites” para equilibrar o desenvolvimento e a mitigação de riscos. Wang Hongguang acredita que, embora esses limites sejam importantes em teoria, ainda não é necessário impô-los ao nível atual de desenvolvimento da inteligência artificial.

Por outro lado, Xue Lan levantou uma preocupação importante: se a IA continuar substituindo tarefas criativas, há o risco de que a imaginação e a criatividade humanas sejam prejudicadas. Ele defende que o progresso tecnológico precisa ser acompanhado de regulamentações que garantam seu uso benéfico para a humanidade.

O próprio ChatGPT oferece uma metáfora interessante sobre seu papel: ele ajuda a processar os ingredientes — a “farinha” — mas transformar esses ingredientes em algo mais complexo, como um “pão delicioso”, ainda exige a experiência e sabedoria humana.

Grandes modelos de linguagem (LLM) demonstraram capacidades de resolução de problemas que excedem em muito as expectativas dos pesquisadores. No entanto, ainda cometem erros ridículos de vez em quando e não têm a capacidade de estar abertos à aprendizagem: depois de concluírem a formação baseada em livros, blogs e outros materiais, a sua base de conhecimento fica congelada. Eles também não conseguem passar no “teste universitário do robô” elaborado por especialistas: não conseguem concluir o ensino universitário, nem mesmo o ensino infantil.

O único problema de AGI que esses sistemas realmente resolvem é o idioma. Eles têm o que é chamado de “expressividade formal”: o LLM pode analisar qualquer frase que você fornecer, mesmo que seja um fragmento ou gíria, e pode responder em inglês padrão semelhante à Wikipedia. No entanto, eles não possuem as habilidades de pensamento que nos ajudam a lidar com nossas vidas diárias. “Não deveríamos esperar que eles pensassem”, diz a neurocientista do MIT, Nancy Kanwisher. “Eles são processadores de linguagem, adeptos da manipulação de texto, mas não sabem muito sobre texto além do que já sabem”. realidade.

Nesse sentido, os grandes modelos de linguagem apenas imitam as capacidades de linguagem do cérebro, mas carecem de capacidades como percepção, memória, navegação e julgamento social. A massa cinzenta do nosso cérebro desempenha funções sobrepostas que são complexas e integradas – amplamente distribuídas por múltiplas regiões cerebrais ou localizadas em uma região específica do cérebro. Por exemplo, pacientes que sofreram um derrame na área da linguagem do cérebro podem não conseguir falar, mas ainda conseguem somar e subtrair, compor sinfonias, jogar xadrez e se comunicar por meio de gestos como antes. Os desenvolvedores de IA estão introduzindo esses módulos funcionais em seus sistemas na esperança de torná-los mais inteligentes.

OpenAI, criadora de Generative Pretrained Transformers (GPT), usa plug-ins para ajudar usuários pagantes em operações matemáticas, pesquisas na Internet e outras tarefas de consulta. Cada plug-in possui uma base de conhecimento dedicada e pré-treinada à qual você pode recorrer. Na verdade, o sistema de linguagem central da GPT também é modular em certo sentido. OpenAI mantém a arquitetura do GPT estritamente confidencial, mas muitos pesquisadores de IA especulam que o GPT consiste em até 16 redes neurais independentes ou “especialistas” que respondem às perguntas dos usuários agrupando seus resultados, mas o mecanismo de trabalho agrupado não é claro. Em dezembro de 2023, a Mistral, empresa de IA com sede em Paris, França, também lançou um modelo de código aberto baseado na arquitetura “Mixed Expert” (MoE), que causou grande sensação. A principal vantagem desta arquitetura modular simples é a eficiência computacional: é mais fácil treinar e operar 16 redes (neurais) menores do que operar uma rede (neural) grande. “Esta ‘arquitetura MoE’ alcança o melhor dos dois mundos”, disse Edoardo Ponti, pesquisador de IA da Universidade de Edimburgo, no Reino Unido. “Podemos obter um sistema com um grande número de parâmetros, mantendo a eficiência de um modelo pequeno. .”

No entanto, a modularidade também traz problemas. Ninguém sabe exatamente como as diversas áreas do cérebro trabalham juntas para criar um eu harmonioso, muito menos como uma máquina pode imitar isso. “Como o sistema de linguagem passa informações para o sistema de raciocínio lógico ou para o sistema de raciocínio social?” A neurocientista do MIT, Anna Ivanova, está muito curiosa sobre isso.

Uma hipótese ousada é que a consciência está por trás de tudo. De acordo com a “Teoria do Espaço de Trabalho Global” (GWT), a consciência é como uma reunião de funcionários de uma empresa com o cérebro, um local onde vários módulos podem compartilhar informações e fornecer ajuda. É claro que a GWT não é a única teoria da consciência, mas é de particular interesse para os investigadores de IA porque levanta a ousada hipótese de que a consciência é crucial para a inteligência avançada. O cérebro pode funcionar automaticamente ao completar uma tarefa simples ou especializada. Porém, quando surgem tarefas novas ou complexas que vão além do escopo de um único módulo, precisamos estar atentos ao que estamos fazendo.

Acadêmicos como Goetzel integraram o espaço de trabalho do GWT em seus sistemas de IA. “Acho que a ideia central do modelo global de espaço de trabalho assumirá muitas formas diferentes”, disse ele. Os pesquisadores usam o GWT em sistemas de IA não para criar máquinas conscientes. Em vez disso, eles alcançam inteligência semelhante à humana simplesmente implementando o GWT no hardware.

Mas, no processo, poderão eles criar inadvertidamente um ser consciente com sentimentos e motivações? Bernard Bales, do Instituto de Neurociências de La Jolla, Califórnia, que propôs o GWT, acha que isso é improvável. “A computação consciente é uma hipótese sem qualquer vestígio de evidência”, disse ele. Mas se os investigadores de IA conseguirem criar AGI, poderão fornecer informações críticas sobre a arquitectura e funcionalidade da própria inteligência.

Modelo de consciência

O GWT tem sido um excelente exemplo de como a neurociência e a pesquisa em inteligência artificial se reforçam mutuamente. Esta teoria remonta ao sistema de reconhecimento de imagem de “domínio fantasma” proposto pelo cientista da computação Oliver Selfridge na década de 1950. Ele compara os módulos do sistema aos demônios do inferno de Milton que gritam por atenção. O pesquisador contemporâneo de Selfridge, Alan Newell, escolheu uma metáfora mais silenciosa, a de um grupo de matemáticos reunidos em frente a um quadro negro para resolver um problema. Essas metáforas foram posteriormente emprestadas por psicólogos cognitivos – na década de 1980, Baars propôs usar o GWT para explicar a consciência humana. “Ao longo da minha carreira, aprendi muito no campo da inteligência artificial porque é basicamente a única plataforma teórica viável que temos”, disse ele.

O GWT de Baars inspirou Stanley Franklin, um cientista da computação da Universidade de Memphis, a construir um computador consciente. Se a máquina de Franklin realmente produzia consciência — Barrs e o próprio Franklin duvidavam disso — ela pelo menos reproduzia algumas das peculiaridades únicas da psique humana. Por exemplo, quando sua atenção muda de uma coisa para outra, ele perde algumas informações críticas, de modo que o computador é tão ruim em multitarefas quanto um ser humano. A partir da década de 1990, os neurocientistas Stanislas Dehaene e Jean-Pierre Change, do Collège de France, em Paris, França, tentaram descobrir os padrões de conexão neural do GWT.

No modelo de Dehaene e Change, os módulos funcionais do cérebro operam de forma independente na maior parte do tempo. Mas a cada décimo de segundo, eles realizam uma “reunião de equipe”. A sessão foi uma disputa de gritos que seguiu regras estabelecidas: cada módulo tinha algumas informações para enviar, e quanto mais confiante estivesse sobre essas informações – por exemplo, quanto mais próximo o estímulo correspondesse às expectativas, mais alto ele gritava. Depois que um módulo ganha vantagem, os outros módulos se acalmam no momento seguinte, e o vencedor coloca essas informações em um conjunto comum de variáveis, o espaço de trabalho. Outros módulos determinam a utilidade das informações. “É um processo interessante onde os módulos cooperam e competem entre si, e cada módulo é parte integrante da resolução do problema”, disse Bals.

O espaço de trabalho não só permite que os módulos se comuniquem entre si, mas também fornece um “fórum” onde diferentes módulos podem pensar coletivamente, mesmo que alguma informação não seja mais apresentada aos sentidos. “Você pode obter algo do mundo exterior – talvez uma sensação fugaz que, embora desapareça dos sentidos, continua a ecoar no espaço de trabalho”, diz Dehaene. Essa capacidade de pensar deliberadamente é fundamental para resolver problemas que envolvem várias etapas ou abrangem um período de tempo. Dehaene conduziu experimentos em seres humanos em laboratório e descobriu que, quando os seres humanos enfrentavam os problemas acima, eles tinham que pensar conscientemente.

O GWT acaba com chefes que atribuem tarefas entre módulos porque é difícil atribuir tarefas corretamente. Em matemática, a delegação (ou a distribuição de responsabilidades entre os diferentes atores para alcançar o desempenho ideal) são os chamados problemas NP-difíceis, cuja solução pode consumir muito tempo. Em muitos sistemas onde existem “chefes”, como a arquitetura especialista híbrida que OpenAI pode usar, uma rede “gating” é responsável pela alocação de tarefas, mas deve ser treinada em conjunto com os módulos, e esse processo de treinamento é fácil de colapsar . Primeiro, ele sofre do que Ponti chama de “problema do ovo e da galinha”: como os módulos dependem de portas e as portas dependem de módulos, o treinamento pode ficar preso em um loop. Em segundo lugar, mesmo que a formação seja bem sucedida, o mecanismo de atribuição de portões é uma caixa negra e o seu princípio de funcionamento é opaco.

Em 2021, Manuel e Lenore Bloom, matemáticos e professores eméritos da Carnegie Mellon University, elaboraram um mecanismo de competição por atenção no espaço de trabalho global. Esse mecanismo garante que o módulo não forneça informações com excesso de confiança, evitando que “boasters” ocupem o espaço de trabalho por muito tempo. Ao mesmo tempo, podem ser desenvolvidas conexões diretas entre módulos que contornam o espaço de trabalho. Este “caminho de atalho” pode explicar o processamento cognitivo quando aprendemos a andar de bicicleta ou a tocar um instrumento: uma vez que aprendemos a andar de bicicleta ou a tocar um instrumento musical, os módulos participantes estão diretamente conectados e processam a tarefa offline, não mais Requer participação consciente. “Isso transforma um processo que requer memória de curto prazo em um processo inconsciente”, diz Lenore Bloom.

Isso ocorre porque a atenção consciente é um recurso escasso. A capacidade de armazenamento de informação no espaço de trabalho é limitada, pelo que o módulo vencedor deve ser muito seletivo no que transfere para outros módulos. Isso parece um design falho. “Por que o cérebro tem um limite tão grande no número de coisas que pode pensar ao mesmo tempo?” Joshua Bengio, pesquisador de IA da Universidade de Montreal, no Canadá, fez esta pergunta. Mas ele acha que esta limitação é uma coisa boa: reforça as leis e disciplinas da cognição – porque a complexidade do mundo não pode ser totalmente monitorizada, os nossos cérebros devem reconhecer as regras simples por detrás de fenómenos complexos. “Esse gargalo nos obriga a entender como o mundo funciona”, disse ele.

Para Bengio, a inspiração importante do GWT para IA é que as redes neurais artificiais de hoje são muito poderosas e não conduzem ao seu próprio desenvolvimento – elas têm bilhões ou até trilhões de parâmetros, que são suficientes para acomodar conteúdo massivo da Internet; Eles tendem a ficar atolados em minúcias e negligenciam a destilação da mecânica mais geral deles. Talvez fosse melhor se funcionassem mais como a mente consciente humana, passando a sua vasta base de conhecimento através de um funil estreito.

Procurando a verdadeira inteligência

Se os pesquisadores conseguirem construir um espaço de trabalho verdadeiramente global em um sistema de IA, isso tornará a IA consciente? Dehaena está otimista quanto a isso, especialmente quando o GWT incorpora recursos de automonitoramento. Mas Baars não pensa assim, em parte porque ainda não está completamente convencido de sua teoria: “Sempre fui cético sobre se o GWT é realmente tão bom. Em sua opinião, a consciência é uma função única dos seres vivos”. em organismos com estruturas biológicas específicas. Franklin expressou ceticismo semelhante em uma entrevista comigo há alguns anos. Ele acredita que o espaço de trabalho global é a resposta da natureza às necessidades do corpo. O cérebro depende da consciência para aprender com a experiência a resolver rapidamente problemas complexos de sobrevivência, mas esta capacidade não está relacionada com os tipos de problemas com os quais a IA normalmente precisa lidar. “Tem que ser um agente autônomo com uma mente real e estruturas de controle”, ele me disse. “Esse agente tem que experimentar a própria vida – isso não significa que não possa ser um robô, mas tem que experimentar o crescimento e. não seja onisciente e onipotente. Venha a este mundo.”

Anil Seth, neurocientista da Universidade de Sussex, no Reino Unido, tem uma opinião semelhante. “A consciência não se trata apenas de ser inteligente”, disse ele. “Não importa o quão inteligente seja o AGI, se não estiver vivo, é improvável que esteja consciente”.

Seth prefere apoiar uma teoria da consciência conhecida como processamento preditivo (também chamada de codificação preditiva). Esta teoria enfatiza que a consciência tenta preparar-se para o futuro antecipando o que está prestes a acontecer. “A compreensão do eu consciente deve começar pela compreensão dos modelos preditivos que controlam o corpo”, disse ele. Seth se concentra principalmente na teoria da consciência de integração de informações, que é uma teoria da consciência dominante que compete com o GWT. Esta teoria não vincula a consciência à função do cérebro, mas à complexa estrutura da rede, ou seja, máquinas com a mesma estrutura complexa também podem produzir consciência. De acordo com esta teoria, a consciência não é parte integrante da inteligência, mas surge para melhorar a eficiência biológica.

A IA é um campo rico em ideias e os engenheiros já têm muitas pistas que podem seguir sem esperar por novas descobertas da neurociência. “Eles estão fazendo um trabalho bastante bom”, diz Nikolaus Kriegscott, neurocientista da Universidade de Columbia. Mas o cérebro ainda é a verdadeira evidência da inteligência geral que, pelo menos por enquanto, os pesquisadores de IA possuem. “O cérebro humano guarda alguns segredos que a engenharia ainda não desvendou”, disse Kriegscott.

Nas últimas décadas, a busca incansável pela AGI nos ensinou muito sobre a nossa própria inteligência. Agora percebemos que tarefas que consideramos simples, como o processamento de informações visuais, na verdade exigem grandes quantidades de computação, e que coisas que consideramos difíceis, como matemática e xadrez, são na verdade fáceis. Reconhecemos também que o cérebro quase não requer conhecimento “pré-instalado”. Ele pode aprender quase tudo o que precisa saber por meio da experiência. Agora, ao compreender a importância da modularidade, começamos a compreender uma sabedoria antiga: não existe nada chamado inteligência. É apenas uma caixa de ferramentas cheia de habilidades – do pensamento abstrato à navegação, da adaptação a sociedades complexas ao processamento da visão e do som. Como diz Goetzel, ao misturar e combinar essas diversas habilidades, nossos cérebros podem ter sucesso em áreas que nunca encontramos antes. Criamos novos gêneros musicais e resolvemos mistérios científicos que eram inimagináveis há uma geração. Agora, estamos entrando em um lugar novo e desconhecido – talvez um dia, nossos primos da IA se ajudem e sigam em frente juntos.

#InteligênciaArtificial #AINovaGeração #PensamentoHumano #TecnologiaDoFuturo #AIFilosofia #MenteDigital #DesenvolvimentoA I#SabedoriaArtificial #EvoluçãoTecnológica #FuturoDaIA #InteligênciaVsSabedoria #InovaçãoAI #DesafiosDaIA

Abian Laginestra