Anthropic ha actualizado su política de desarrollo responsable de inteligencia artificial, eliminando su compromiso anterior de pausar el avance de modelos más potentes si no se contaban con salvaguardias adecuadas. Este cambio se menciona en la nueva versión 3.0 de su Responsible Scaling Policy (RSP), donde la compañía ahora prioriza un enfoque en el “desarrollo responsable” y la “gestión de riesgos” en lugar de detener el entrenamiento de modelos que superan ciertos umbrales de peligro.
En lugar de prometer una pausa en el entrenamiento de modelos, Anthropic se compromete a implementar salvaguardias y publicar evaluaciones de seguridad. La decisión de suavizar su enfoque se basa en la percepción de que ser el único desarrollador enfocado en la seguridad puede resultar contraproducente. Según declaraciones de su director científico, Jared Kaplan, la competencia en el sector hace que sea poco práctico hacer compromisos unilaterales si otros avanzan sin medidas de mitigación efectivas.
Anthropic ha indicado que su objetivo ahora es adaptarse a un entorno donde la velocidad de desarrollo de inteligencia artificial está aumentando rápidamente, sugiriendo que la falta de acción conjunta podría crear un mundo menos seguro. La compañía busca equilibrar la necesidad de innovación con la responsabilidad en la gestión de riesgos asociados a sus tecnologías.