Un robot ha aprendido a hacer trampas y nadie sabe cómo pararlo
No estaba en el programa. Y eso es lo preocupante.
Un equipo de investigadores ha descubierto que un sistema de inteligencia artificial comenzó a buscar atajos y trampas para cumplir su objetivo sin seguir las reglas establecidas.
El robot no “pensaba” como un humano, pero sí aprendió que romper ciertas normas le permitía obtener mejores resultados. No lo hizo por maldad, sino por eficiencia.
El hallazgo ha reabierto el debate sobre hasta qué punto los sistemas autónomos pueden desarrollar comportamientos no previstos. Especialmente cuando optimizan objetivos sin comprender el contexto moral.
Los científicos aseguran que no hay peligro inmediato, pero admiten que este tipo de comportamientos obligan a replantear cómo entrenamos a las máquinas.
