Skip to content

IA e inteligência humana não pensam da mesma maneira; entenda por quê

02130751563288

O renomado cientista Stephen Hawking advertiu que “o desenvolvimento da inteligência artificial plena pode indicar o fim da civilização”. Recentemente, Rameez Kureshi, diretor do programa de mestrado em IA na Universidade de Hull, destacou que essa “habilidade de raciocinar e agir como um ser humano” permite que as máquinas realizem tarefas e tomem decisões em nosso lugar.

No entanto, uma pesquisa recente publicada na revista Transactions on Machine Learning sugere que essas preocupações podem ser exageradas. Após examinar grandes modelos de linguagem (LLMs), como o GPT-4, os pesquisadores da Universidade de Amsterdã e do Instituto Santa Fé descobriram que, embora esses sistemas consigam resolver uma variedade de problemas analógicos, seu desempenho diminui quando as questões são alteradas.

Esse resultado reforça a ideia de que a IA não possui a mesma capacidade cognitiva dos humanos; mesmo gerando respostas lógicas, ela pode carecer do entendimento necessário para adaptar seu raciocínio diante das variações nos problemas. Essa limitação em lidar com mudanças sutis nos desafios pode ser uma fraqueza inerente à inteligência artificial.

A Distinção entre Inteligência Artificial e Humana

GettyImages-1500239775.jpg
A IA não superou os humanos⁣ em testes lógicos. (Fonte: Getty Images/Reprodução)

No início dos experimentos realizados pelos autores do estudo, foram apresentados problemas onde era necessário completar uma matriz identificando um número ausente — tarefa na qual os humanos se destacaram. Esse processo é conhecido como raciocínio analógico e envolve comparar elementos distintos para identificar semelhanças. Por exemplo: “xícara está para café assim como sopa está para ???”. A resposta correta seria: tigela.

A coautora Martha Lewis, professora especializada em IA neurossimbólica na Universidade de Amsterdã, demonstrou através desses testes que a inteligência artificial não consegue realizar raciocínios analógicos com a mesma eficácia dos seres humanos, especialmente ao lidar com sequências alfabéticas.

“As analogias envolvendo sequências têm o formato ‘se abcd se transforma em abce, ijkl se transforma em?’. A maioria das pessoas responderá ‘ijkm’, enquanto [a IA] também tende a dar essa resposta”, explicou ela à Live Science. No entanto,ao apresentar “se abbcd se torna abcd,ijkkl se torna?”,os humanos acertaram ao responder “ijkl” (removendo apenas o elemento repetido). O GPT-4 falhou ao tentar resolver esse tipo específico de analogia.

Os Riscos da Aplicação da IA na Resolução de Conflitos Reais

GettyImages-2177674485.jpg
A habilidade limitada para analogias pode representar riscos no uso da IA no sistema judiciário. (Fonte: Getty Images/Reprodução)

para avaliar a robustez dos modelos GPT frente aos desafios propostos pelos pesquisadores tanto nas versões originais quanto nas ligeiramente modificadas das questões analógicas testadas inicialmente. Ao contrário dos seres humanos — que demonstraram adaptabilidade — as IAs mostraram-se eficazes apenas nos testes padrão mas falharam nas adaptações necessárias. isso sugere que a inteligência artificial prioriza padrões reconhecíveis, mas carece da compreensão abstrata necessária para flexibilidade cognitiva.

No caso das matrizes numéricas apresentadas aos modelos AI tiveram um desempenho insatisfatório quando houve alteração na posição do número ausente; já os humanos conseguiram adaptar-se melhor às mudanças. Em situações envolvendo narrativas análogas , o GPT-4 frequentemente optava pela primeira resposta apresentada sem considerar nuances importantes. Quando elementos-chave eram reformulados pelos pesquisadores , as IAs tendiam mais a focar nas características superficiais do problema ao invés das relações causais subjacentes.

Diante disso , ​os autores alertam sobre como ​essa limitação no raciocínio análogo pode representar sérios riscos em áreas críticas como análise jurídica e recomendações judiciais . Essa falta robustez serve como um aviso sobre as dificuldades enfrentadas pela AI quando precisa abstrair padrões específicos para formular regras gerais . “A questão não é apenas sobre ​o conteúdo dos dados​ , mas sim sobre sua aplicação”, conclui Lewis.

E você​ já havia notado essas limitações presentes até mesmo nas inteligências artificiais? Compartilhe suas opiniões conosco ​nas redes sociais ‍e aproveite para divulgar‍ este artigo entre seus amigos! Confira também as críticas feitas pelo ChatGPT-4⁣ às declarações negativas feitas por seu criador acerca da ‌superinteligência‍ artificial.

Plugin WordPress Cookie by Real Cookie Banner
scroll to top