Google DeepMind pone la seguridad en el centro de su carrera hacia la inteligencia artificial avanzada

DeepMind Fuente original

Google DeepMind ha publicado un extenso documento sobre seguridad en Inteligencia Artificial General (AGI) – sistemas con capacidades cognitivas similares o superiores a las humanas. La investigación identifica cuatro áreas principales de riesgo: uso indebido deliberado, desalineación con valores humanos, accidentes y riesgos estructurales, subrayando que esta tecnología podría transformar radicalmente la medicina, educación e innovación.

Shane Legg, científico jefe de AGI en Google DeepMind, enfatiza que la emoción por estas posibilidades no debe eclipsar las necesidades de seguridad, proponiendo un enfoque que incluye restringir capacidades peligrosas, implementar mecanismos de seguridad sofisticados y priorizar la investigación en alineación con valores humanos. La organización estima que la AGI podría llegar tan pronto como 2030.

Compartir: