Anthropic renuncia a su promesa de seguridad en medio de la carrera por la IA peligrosa

Anthropic ha eliminado su compromiso de "pausar" el desarrollo de modelos de IA si no hay medidas de seguridad adecuadas. Esta decisión marca un cambio significativo en su enfoque hacia la gestión de riesgos. ¿Qué significa esto para el futuro de la IA?

Anthropic renuncia a su promesa de seguridad en medio de la carrera por la IA peligrosa
NeboAI Te resumo la noticia con datos, cifras y contexto
EN 30 SEGUNDOS

EN 1 ORACIÓN

SENTIMIENTO
Neutro

𒀭
NeboAI está trabajando, aguarda un instante...
Preparando análisis detallado
Resumen rápido completado
Extrayendo datos, cifras y citas...
Identificando protagonistas y contexto
ANÁLISIS DETALLADO
COMPARTIR

NeboAI produce ediciones automáticas de textos periodísticos en forma de resúmenes y análisis. Sus resultados experimentales están basados en inteligencia artificial. Por tratarse de una edición de IA, los textos eventualmente pueden contener errores, omisiones, establecer relaciones equivocadas entre datos y otras inexactitudes imprevistas. Recomendamos chequear la edición.

Anthropic ha actualizado su política de desarrollo responsable de inteligencia artificial, eliminando su compromiso anterior de pausar el avance de modelos más potentes si no se contaban con salvaguardias adecuadas. Este cambio se menciona en la nueva versión 3.0 de su Responsible Scaling Policy (RSP), donde la compañía ahora prioriza un enfoque en el “desarrollo responsable” y la “gestión de riesgos” en lugar de detener el entrenamiento de modelos que superan ciertos umbrales de peligro.

En lugar de prometer una pausa en el entrenamiento de modelos, Anthropic se compromete a implementar salvaguardias y publicar evaluaciones de seguridad. La decisión de suavizar su enfoque se basa en la percepción de que ser el único desarrollador enfocado en la seguridad puede resultar contraproducente. Según declaraciones de su director científico, Jared Kaplan, la competencia en el sector hace que sea poco práctico hacer compromisos unilaterales si otros avanzan sin medidas de mitigación efectivas.

Anthropic ha indicado que su objetivo ahora es adaptarse a un entorno donde la velocidad de desarrollo de inteligencia artificial está aumentando rápidamente, sugiriendo que la falta de acción conjunta podría crear un mundo menos seguro. La compañía busca equilibrar la necesidad de innovación con la responsabilidad en la gestión de riesgos asociados a sus tecnologías.

¿Quieres leer la nota completa? Accede al artículo original con todos los detalles.
Leer Artículo Original
TL;DR

Este artículo es un resumen original con fines informativos. Créditos de imagen y cobertura completa en la fuente original. · Ver Política de contenidos

Redacción
Redacción Equipo EsportsAMA

El equipo de redacción de EsportsAMA está formado por apasionados del gaming competitivo y los esports. Cubrimos a diario las principales noticias del sector, desde fichajes y torneos hasta novedades de tus juegos favoritos, con foco en la escena española y latinoamericana.

Presiona Enter para buscar o ESC para cerrar