La salida de Caitlin Kalinowski de OpenAI ha generado un impacto significativo en la división de robótica de la empresa. En su cuenta de X, Kalinowski expresó su preocupación por la falta de deliberación en torno al uso de la inteligencia artificial en temas de seguridad nacional, particularmente en relación con la vigilancia de ciudadanos estadounidenses sin supervisión judicial.
Este acontecimiento surge tras una disputa entre Anthropic y el Departamento de Guerra de EE. UU., donde Anthropic se negó a eliminar salvaguardias en sus herramientas de IA para aplicaciones militares. OpenAI, en respuesta, decidió avanzar en un acuerdo con el departamento, aunque Sam Altman admitió que la empresa no debió apresurarse en sus decisiones. Además, aclaró que las herramientas de OpenAI no serían utilizadas por agencias de inteligencia como la NSA.
Kalinowski, quien lideraba la planificación y ejecución en la organización de robótica de OpenAI, mencionó que la falta de guardrails definidos fue un factor crítico en su decisión de renunciar. En sus declaraciones, enfatizó que la situación se trataba de principios y no de personas, manifestando su respeto por el equipo y su orgullo por el trabajo realizado juntos.