El sistema ayudaría a mejorar la toma de decisiones de las máquinas.
Científicos del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT (CSAIL) crearon redes neuronales que podrían determinar cuándo las máquinas dejan de ser confiables. Como vimos en Terminator, donde la inteligencia artificial sobrepasó el entendimiento humano, este descubrimiento evitaría que algo así pudiese pasar en la realidad.
De acuerdo con el sitio ScienceAlert, estas redes neuronales de aprendizaje profundo están diseñadas para imitar el cerebro humano, al evaluar una multitud de factores que deben estar en equilibrio, detectando patrones de comportamiento en millones de datos, algo que los humanos por sí solos no tienen la capacidad de analizar.
Si bien, una realidad como la que muestra Skynet (Terminator) parecía ser lejana, la Inteligencia Artificial (IA) ya está tomando decisiones en campos que afectan la vida humana, como la conducción autónoma y el diagnóstico médico, esto significa que es de vital importancia que sean lo más precisos posible. Para tratar de lograr ese objetivo, este sistema de red neuronal puede generar niveles de confianza, así como también las predicciones de las máquinas que operan con este tipo de inteligencia.
“Necesitamos la capacidad no solo de tener modelos de alto rendimiento, sino también de comprender cuándo no podemos confiar en esos modelos”, dijo el científico informático Alexander Amini del MIT.
A esta autoconciencia de confiabilidad se le ha dado el nombre de Regresión Probatoria Profunda, la cual basa su puntuación en la calidad de los datos disponibles: cuanto más precisos y completos sean los datos de entrenamiento, más probable es que las predicciones futuras vayan a funcionar. A modo de ejemplo, el equipo de investigación lo compara con un automóvil autónomo que tiene diferentes niveles de certeza sobre si debe pasar por un cruce o no.
Lo que distingue a esta red neuronal es la velocidad a la que funciona: se puede completar en sólo una ejecución en lugar de varias, con un nivel de confianza generado al mismo tiempo que la decisión.
“Esta idea es importante y aplicable en general. Puede utilizarse para evaluar productos que se basan en modelos aprendidos. Al estimar la incertidumbre de un modelo aprendido, también aprendemos cuánto error esperar del modelo y qué datos faltantes podrían mejorarlo”, dice la científica informática Daniela Rus.
Los investigadores probaron su nuevo sistema haciéndolo juzgar las profundidades en una imagen, al igual que un automóvil autónomo podría juzgar la distancia. La red pudo marcar los momentos en que encontró imágenes fuera de su ámbito habitual -muy diferente a los datos en los que había sido entrenado-.
“Estamos empezando a ver muchos más de estos modelos -de redes neuronales- salir del laboratorio de investigación y entrar en el mundo real, en situaciones que están afectando a los humanos con consecuencias potencialmente mortales. Cualquier usuario del método, ya sea un médico o una persona en el asiento del pasajero de un vehículo, debe ser consciente de cualquier riesgo o incertidumbre asociados con esa decisión”, dice Amini.
Los científicos a cargo dicen que están seguros de que su nueva prueba de confianza optimizada puede ayudar a mejorar la seguridad en tiempo real, aunque el trabajo aún no ha sido revisado por otros expertos.