La inteligencia artificial puede prevenir atentados
Bolardos digitales
Un sistema automático ayuda a averiguar cómo se sienten y qué objetivos persiguen las personas analizando detalladamente la expresión de sus caras y sus movimientos
Un sistema de inteligencia artificial permite descubrir lo que están pensando o sintiendo las personas sólo con observarlas detenidamente. Para que el método funcione, se necesitan dos elementos fundamentales: una cámara que enfoque las caras de los sujetos en cuestión y los algoritmos que operan a partir de las imágenes. Los responsables de la empresa que ha desarrollado este invento y el programa que lleva asociado, Silver Logic Labs, destacan que se pueden aplicar a múltiples actividades y tareas: de la salud a la educación, pasando por la seguridad, en especial, la prevención de atentados terroristas.
Para entender mejor el alcance de esta fórmula, el director de la compañía, Jerimiah Hamon, se refiere a distintos supuestos en los que su producto sería de lo más útil. Habría que empezar imaginándose a un individuo joven, de estatura media y complexión normal, con una mochila a la espalda y corriendo en solitario por una gran superficie comercial o una calle céntrica de una ciudad. Podría tratarse de un hombre que acaba de darse cuenta de que ha perdido a su hijo. Pero también de un criminal cargado de explosivos. Si los vigilantes del establecimiento o del área donde se da esta escena dispusiesen de este instrumental, podrían salir de dudas rápidamente.
El sistema ayudaría a aclarar si un hombre que corre por la calle con una mochila lo hace porque está buscando a su hijo o porque pretende cometer un delito”
A partir de esta información fiable, tendrían la capacidad de orientar su actuación en un sentido u otro: para ayudar al padre angustiado porque no puede encontrar a su pequeño o para detener al agresor antes de que perpetre su ataque. Como recuerda Hamon, la gente se mueve y se comporta de diferente manera dependiendo de su estado emocional. Los datos son muy valiosos en este aspecto. Tanto que evitarían que el señor preocupado por su niño fuese abordado por la policía como si fuese un delincuente o que el terrorista fuese ignorado al ser confundido por alguien que sencillamente llega tarde a una cita. La anticipación es la clave.
Una lógica similar se emplearía en la enseñanza. Gracias a esta inteligencia artificial se podría determinar cómo responden los estudiantes a su profesor por sus respectivas expresiones: tras haber entendido plenamente lo que se les ha explicado, por pura inercia y para ahorrarse problemas, al azar o por casualidad, con animadversión o frustración, etc. Incluso se podrían captar las limitaciones de determinados alumnos de colegios u otros centros docentes que no comprenden las materias y los contenidos impartidos y que, por lo tanto, requieren procedimientos alternativos, que no sean los tradicionales.
Además de fijarse en los rostros de los individuos, el programa tiene en cuenta que nos comportamos de distinto modo en función de nuestro estado emocional”
La sanidad es igualmente un terreno idóneo para la extensión de esta tecnología. Por ejemplo, antes de que se desencadene un accidente cerebrovascular, se dan microepisodios de este tipo. La mayoría son indetectables. No obstante, si en una residencia de ancianos hubiese cámaras convenientemente equipadas, podrían apreciarse y el personal tendría la posibilidad de ponerse alerta. Cuando se está preparando el lanzamiento de una película o una serie, este mismo sistema aporta excelentes detalles sobre las reacciones de los espectadores elegidos para un primer pase.
Así, los promotores de esta obra audiovisual no dependen únicamente de las respuestas de los escogidos para esta prueba. Pueden escrutar sus rostros para saber lo que piensan. Sin embargo, la innovación que ha introducido Silver Logic Labs en el mercado también presenta algunas amenazas, en la esfera de la intimidad o la privacidad de los ciudadanos susceptibles de ser grabados por las cámaras. Sus detractores se preguntan si esta herramienta podría acabar convirtiéndose en una excusa para considerar a todo el mundo sospechoso de algo o hasta para averiguar si alguien ha consumido alcohol, drogas o medicamentos en cualquier contexto.
Los detractores de la herramienta se preguntan si ésta podría acabar convirtiéndose en una excusa para considerar a todo el mundo sospechoso de algo”