
Tudo sobre Inteligência Artificial

Tudo sobre OpenAI
Você já parou para imaginar como um modelo de inteligência artificial chega às respostas para suas perguntas? Como uma IA “pensa”? Muitas vezes, os modelos de IA utilizam um processo chamado cadeias de pensamento, ou CoTs, sigla para chains of thought em inglês.
Pesquisadores de grandes empresas como OpenAI, Google DeepMind, Meta, Anthropic e muitas outras, junto com organizações sem fins lucrativos, alertam para a importância de monitorar as CoTs. O apelo foi feito em um artigo publicado nesta semana. No resumo do artigo, os pesquisadores explicam:
Potencialize seu trabalho com IA!
Aprenda a criar agentes de Inteligência Artificial que trabalham 24 horas por você!
Conheça o curso de IA & Automação de Agentes com N8N da Impacta em parceria com o Olhar Digital.
Oferta Exclusiva: Assine o plano anual do Clube Olhar Digital por apenas R$ 58,99 e ganhe 10% de desconto imediato no curso.
A economia é maior que o valor da assinatura!
Aproveite essa oportunidade e dê o próximo passo rumo à automação inteligente!
Assine Agora e Economize!
“Sistemas de IA que ‘pensam’ em linguagem humana oferecem uma oportunidade única para a segurança da IA: podemos monitorar suas cadeias de pensamento (CoTs) para identificar intenções de se comportar de forma inadequada. Assim como todos os outros métodos conhecidos de supervisão de IA, o monitoramento de CoTs é imperfeito e permite que alguns comportamentos indevidos passem despercebidos.”
Esses modelos de raciocínio são uma tecnologia central para agentes de IA. Os autores do artigo argumentam que o monitoramento das CoTs pode ser um método essencial para manter esses agentes sob controle, à medida que se tornam mais difundidos e capazes.
Leia mais:
Como os erros podem ser identificados?
As CoTs se assemelham a rascunhos que nós, seres humanos, também usamos para resolver problemas. São esses rascunhos que devem ser acompanhados pelos desenvolvedores. Para isso, os pesquisadores alertam para a necessidade de fazer com que os modelos de IA “pensem em voz alta”.
Para resolver problemas mais complexos, os modelos de IA sempre recorrem às cadeias de pensamento e precisam externalizar seu raciocínio. Isso permite que esse raciocínio seja monitorado e torna possível identificar comportamentos inadequados.

(Imagem: Who is Danny/Shutterstock)
Os autores do artigo recomendam mais pesquisas sobre a monitorabilidade das CoTs e investimentos em seu monitoramento, aliados aos métodos de segurança existentes. E alertam:
“Como a monitorabilidade das CoTs pode ser frágil, recomendamos que os desenvolvedores de modelos de ponta considerem o impacto de suas decisões de desenvolvimento sobre essa capacidade.”
Entender quais fatores aumentam ou reduzem a transparência sobre como os modelos realmente chegam às respostas é essencial para evitar intervenções que possam comprometer sua confiabilidade.
Quem assinou o artigo?
Entre os signatários notáveis estão:
- Mark Chen (diretor de pesquisa da OpenAI)
- Ilya Sutskever (CEO da Safe Superintelligence)
- Geoffrey Hinton (laureado com o Nobel)
- Shane Legg (cofundador da Google DeepMind)
- Dan Hendrycks (conselheiro de segurança da xAI)
- John Schulman (cofundador da Thinking Machines)
Também assinam líderes do Instituto de Segurança em IA do Reino Unido e da Apollo Research, além de representantes da METR, Amazon, Meta e UC Berkeley.
O artigo representa um momento de união dentro do setor e um esforço para impulsionar a pesquisa em segurança. Pode indicar, ainda, a necessidade crescente de regulamentação para a inteligência artificial.

Ao mesmo tempo, as empresas disputam pesquisadores especializados em IA e modelos de raciocínio. A Meta contratou pesquisadores de ponta da OpenAI, Google DeepMind e Anthropic com ofertas milionárias.
Em entrevista ao TechCrunch, Bowen Baker, pesquisador da OpenAI que trabalhou no artigo, disse:
“Estamos em um momento crítico com essa nova abordagem de cadeia de pensamento. Parece bastante útil, mas pode desaparecer em alguns anos se as pessoas não se concentrarem nisso. Publicar um artigo de posição como este, para mim, é uma forma de atrair mais pesquisa e atenção para esse tema antes que seja tarde.”
Bowen Baker
Boas iniciativas em prática
A Anthropic tem liderado na área de interpretabilidade — o campo que estuda como os modelos de IA realmente funcionam. A empresa se comprometeu a “abrir a caixa-preta” dos modelos até 2027 e aumentar os investimentos em interpretabilidade. Dario Amodei, CEO da empresa, pediu que a OpenAI e a Google DeepMind pesquisem mais sobre o tema.

As primeiras pesquisas da Anthropic indicam que as CoTs podem não ser uma indicação totalmente confiável de como os modelos chegam às respostas. Ao mesmo tempo, pesquisadores da OpenAI afirmam que o monitoramento de CoTs pode, no futuro, ser uma forma confiável de acompanhar o alinhamento e a segurança dos modelos.
É possível que o artigo incentive ainda mais investimentos e estudos na área.