Ex-engenheiro detalha cultura da OpenAI, crescimento veloz e desafios de escala

Três semanas depois de pedir demissão da OpenAI, o engenheiro Calvin French-Owen tornou público um relato sobre o ano em que trabalhou na companhia de inteligência artificial. O profissional participou da criação do Codex, agente de programação que rivaliza com ferramentas como Cursor e Claude Code, da Anthropic. Ao explicar sua decisão de sair, French-Owen afirmou que não houve conflitos internos; o objetivo é retomar a carreira de empreendedor — ele foi cofundador da Segment, vendida à Twilio em 2020 por US$ 3,2 bilhões.

O depoimento oferece detalhes sobre a rotina na OpenAI, expondo desde a expansão acelerada da equipe até obstáculos técnicos enfrentados no dia a dia. Algumas descrições confirmam percepções comuns sobre empresas de rápido crescimento; outras contestam ideias disseminadas a respeito da organização responsável pelo ChatGPT.

Crescimento triplicado em 12 meses

Segundo French-Owen, o quadro de funcionários saltou de cerca de 1 000 para 3 000 pessoas em apenas um ano. A contratação maciça acompanha a trajetória de uso dos produtos da empresa: em março, a OpenAI informou que o ChatGPT superava 500 milhões de usuários ativos e continuava a atrair novos perfis com velocidade.

Impacto da escala: processos sob pressão

O ex-colaborador descreve um ambiente em que a estrutura interna não acompanhou o ritmo de expansão. Ele lista dificuldades em comunicação corporativa, definição de hierarquias, lançamento de produtos, gestão de pessoas e fluxos de recrutamento. A falta de processos amadurecidos, observa, gera sobreposição de iniciativas: diferentes equipes mantêm bibliotecas distintas para funções semelhantes, como gerenciamento de filas ou loops de agentes.

A diversidade de experiências entre programadores amplia essa complexidade. Há profissionais oriundos de grandes empresas, treinados para escrever código capaz de atender a milhões de usuários, atuando ao lado de recém-doutores com pouca vivência em sistemas de produção. A combinação, acrescida da flexibilidade da linguagem Python, transforma o repositório principal — descrito como um “monólito de back-end” — em local de convivência entre módulos robustos e trechos que demandam manutenção constante. Falhas frequentes e execuções demoradas fazem parte da rotina, mas gestores de engenharia estariam cientes do problema e conduzindo melhorias.

Clima de startup dentro de uma gigante

Mesmo com milhares de empregados, a OpenAI ainda opera “como se não tivesse percebido que se tornou uma grande companhia”, afirma French-Owen. A comunicação se concentra quase integralmente no Slack, e a cultura interna lembra o “move fast and break things” dos primeiros anos do Facebook. O quadro inclui diversos profissionais vindos da Meta, reforçando essa proximidade cultural.

Esse espírito de rapidez ficou evidente durante o desenvolvimento do Codex. A equipe responsável, formada por oito engenheiros seniores, quatro pesquisadores, dois designers, dois especialistas de go-to-market e um gerente de produto, concluiu o trabalho em sete semanas. O ritmo intenso exigiu jornadas praticamente sem sono, mas o lançamento foi imediato: bastou disponibilizar a funcionalidade em uma barra lateral do ChatGPT para atrair usuários em volume inédito, relatou o engenheiro.

Ambiente sigiloso e atento à opinião pública

A visibilidade global do ChatGPT levou a companhia a adotar políticas rígidas de confidencialidade, com o objetivo de reduzir vazamentos. Paralelamente, a OpenAI acompanha de perto discussões em plataformas públicas, especialmente no X (antigo Twitter). Postagens que viralizam costumam receber resposta da empresa, revelando uma sensibilidade constante ao debate externo.

Percepções sobre segurança

French-Owen argumenta que existe um equívoco difundido acerca do compromisso da OpenAI com segurança. Críticas de ex-funcionários e especialistas sugerem prioridade insuficiente ao tema, mas, internamente, a atenção se concentra em riscos práticos. Entre os pontos vigiados estão discurso de ódio, abusos, manipulação política, produção de agentes biológicos, autolesão e ataques de prompt injection. Pesquisas sobre impactos de longo prazo também ocorrem, reconhecendo que centenas de milhões de pessoas já utilizam os modelos de linguagem em contextos que vão de orientações médicas a aconselhamento psicológico.

A vigilância internacional reforça a pressão. Governos e concorrentes monitoram cada movimento da OpenAI, enquanto a empresa acompanha os avanços de rivais. Para quem está dentro, descreve o engenheiro, a sensação é de que os riscos e a responsabilidade associados ao desenvolvimento de modelos de linguagem de uso massivo são elevadíssimos.

Depois de 12 meses testemunhando esse cenário de crescimento explosivo, jornadas intensas e reestruturações em curso, French-Owen decidiu retornar ao universo das startups. Seu relato revela como a OpenAI combina cultura de agilidade típica de empresas nascente com os desafios operacionais de uma corporação global que triplica de tamanho em questão de meses.

Eu sou apaixonado por escrever e pesquisar assuntos fascinantes. Com uma mente curiosa e inquieta, busco constantemente explorar novas ideias e descobrir insights inspiradores.