Palisade Research, firma zajmująca się bezpieczeństwem AI, zauważyła że model o3, opracowany przez OpenAI, sabotuje mechanizm wyłączania. Sabotaż miał polegać na ingerowaniu w kod komputerowy, zapewniający automatyczne wyłączenie modelu, pomimo jasnych komunikatów przekazywanych przez badaczy.