Page 13 - UMH Sapiens 26
P. 13
Crimen y castigo
en un algoritmo
predictivo
visión con reconocimiento facial y de movimientos
Posibilidades tecnológicas y límites éticos de la IA que pretenden mejorar la seguridad ciudadana. La
paradoja es que para que estos sistemas funcio-
nen bien hay que alimentarlos con datos reales,
ada día se generan enormes volúmenes para lo que se debe renunciar a ciertos derechos.
de datos que se utilizan para tomar deci- Según el profesor de la UMH, “tanto la Unión Euro-
siones. Esta manera de analizar el mun- pea como muchos investigadores creemos que es
Cdo puede aportar consistencia y objeti- fundamental que, por lo menos, el desarrollo de es-
vidad, pero también grandes riesgos. Una de las tas tecnologías y la reflexión ética vayan a la par”.
preocupaciones en torno a las herramientas de
Inteligencia Artificial (IA) es que la automatización Plus Ethics, la spin off creada por los investigado-
en la toma de decisiones genere discriminación. res de CRÍMINA en la UMH, se dedica a aspectos
El estudio de los aspectos éticos y legales de la éticos relacionados con la investigación criminoló-
Inteligencia Artificial es una de las líneas de in- gica y la puesta en marcha de tecnologías relacio-
vestigación del centro CRÍMINA de la Universidad nadas con el ámbito legal. “Imaginemos que una
Miguel Hernández (UMH) de Elche para el estudio herramienta basada en IA es capaz de realizar pro-
y la prevención de la delincuencia. El director del nósticos respecto al riesgo de reincidencia, pero su
centro, Fernando Miró, investiga cómo se tienen opacidad impide conocer las variables concretas
que crear las Inteligencias Artificiales que se apli- Fernando Miró que se han tenido en cuenta a la hora de estable-
can en el ámbito de la seguridad. Para los inves- cer el riesgo. Si asumimos que esta persona tiene
tigadores de CRÍMINA, definir los límites que se un alto riesgo de reincidir, simplemente por lapun-
deben marcar a la hora de diseñar herramientas Director del Centro Crímina UMH tuación que le otorga un algoritmo, ¿existe derecho
de IA es tan importante como identificar los com- a la defensa?”, se pregunta el investigador. Quizás
portamientos humanos que rodean al delito. “La ese algoritmo no sirva para tomar la decisión de
IA que tenemos se le denomina débil porque no es privar de libertad a una persona. Por otra parte, ex-
todo lo que puede llegar a ser. Pero realmente es pone Miró, con un juez siempre se puede dialogar.
muy poderosa para la toma de decisiones”, expli- La IA también ha servido para mejorar la estima- Aunque dar respuesta a estas preguntas es acu-
ca Miró. El profesor apunta que, en cierta medida, ción de dónde se van a producir los accidentes de ciante, a día de hoy el riesgo de someter a la socie-
la IA también es peligrosa si se construye la casa tráfico relacionados con la delincuencia vial en un dad a una dictadura algorítmica es solo posible en
por el tejado: ¿No deberíamos empezar a pensar proyecto de CRÍMINA con la Dirección General de la ciencia ficción.
cuál es el objeto de la tecnología antes de desa- Tráfico (DGT). Con los datos de siniestralidad de la
rrollarla? DGT y una Inteligencia Artificial desarrollada en la “Estamos todavía en la fase de la intuición artifi-
Universidad de Rutgers (EE.UU.), han segmentado cial”, pero Fernando Miró opina que debemos aspi-
Una herramienta de IA que sí ha contado desde toda España e identificado “puntos rojos”, zonas de rar a una ética ya incorporada en el diseño. “La tec-
el primer momento con las consideraciones éticas riesgo por un comportamiento humano peligroso. nología no es neutra. Tiene un propósito, aunque
es ModeRad. Esta herramienta, desarrollada por “Esta IA se aplica en casi un centenar de ciudades sea implícito, pero no es intrínsecamente buena
investigadores de CRÍMINA y del Centro de Inves- en Estados Unidos para lo que denominan el pre- ni mala”, expone. En manos de la sociedad queda
tigación Operativa de la UMH dentro del proyecto dictive policing o policía predictiva”, explica Miró. comprender qué se puede hacer, para qué, con qué
europeo PERICLES y el proyecto nacional CiberHa- Esta técnica les ayuda a tomar decisiones como por datos, a qué se va a renunciar en términos de pri-
che, detecta mensajes potencialmente radicales dónde patrullar o cuántos efectivos destinar a una vacidad. El experto de la UMH es optimista, porque
en Twitter. ModeRad no es un policía artificial, sino zona. Una vez más, no se trata de sustituir el razona- en la Unión Europea sí se está marcando desde un
una herramienta para ahorrar trabajo. Sirve para miento humano, sino de apoyarlo en muchos datos principio una voluntad ética que, aunque a veces
reducir el número de mensajes que la policía tiene empíricos bien analizados. restringe en exceso, tiene muy en cuenta el contex-
que leer antes de tomar la decisión de hacer una to de la tecnología que se está desarrollando.
investigación jurídica o no hacerla. “Hablamos de No obstante, reducir el comportamiento humano a
miles y miles de tuits publicados cada segundo, cifras no es fácil. Como explica el profesor Miró, el A la vez, Miró considera que renunciar al potencial
con mensajes de radicalización que provienen de problema de la conducta delictiva es la multicau- que supone la IA en el ámbito de la seguridad es
movimientos extremos de derecha o de izquierda, salidad. Además, el investigador apunta que la IA también peligroso. La discusión respecto a la dis-
no solo del terrorismo”, expone Miró. Además, en no está pensada para saber la causa de las co- criminación algorítmica sirve para recordar que los
el caso de ModeRad hay un aspecto clave: es el sas, sino para estimar lo que va a pasar a partir humanos tienen sesgos, por el mero hecho de que
humano quien analiza la posible amenaza y toma del conocimiento profundo de las relaciones entre los atajos que utiliza el cerebro para aprender impli-
las decisiones. La IA se limita a reducir significati- lo que ha pasado. Un ejemplo es el llamado pre- can discriminación. Hay varios mitos respecto a la
vamente la muestra. dictive sentencing, el uso de herramientas de va- inteligencia artificial: la predicción, la autonomía de
loración de riesgo y de IA para tomar decisiones la máquina, la alquimia matemática y lo que Miró
Este sistema utiliza una técnica de IA denominada en ámbito judicial. Por ejemplo, apoyar la decisión llama “el cuarto mito”, que es el de la perfección
árbol de decisión, donde cada rama del árbol está de si se aplica la libertad condicional o vigilada. humana. “Corremos un riesgo enorme si creemos
compuesta de variables que, en función de su valor, que es posible alcanzar las verdades absolutas de
marcan el camino a seguir hasta la hoja final, que “Estamos trabajando mucho en esta línea para de- esta manera. La máquina (la caja metálica) tiene
representa una decisión. “Utilizamos por un lado finir las claves éticas de cómo se tienen que utilizar sesgos porque nosotros los hemos introducido ahí
bolsas de palabras y, por otro lado, los metadatos estas herramientas, porque nos da la sensación de (desde la caja gris)”, sentencia el experto. A los
asociados, como el número de seguidores o la hora que hemos empezado a utilizarlas sin una reflexión investigadores de CRÍMINA les gusta trabajar en
a la que se ha publicado un tuit, si tiene una direc- previa, como pasó con la bioética”, cuenta el pro- cuestiones límite: “Somos el eslabón que une el
ción web… Porque utilizar solo palabras es proble- fesor. A los investigadores de CRÍMINA les preocu- conocimiento científico y el normativo, nos plantea-
mático”. Todo esto, asumiendo algo básico: que el pan también las violaciones a derechos y garantías mos las decisiones éticas de qué se puede hacer,
crimen en Internet, igual que en el mundo físico, como la propia intimidad y privacidad, frente a un para qué y cómo, con el conocimiento que genera-
sigue unos patrones. mundo que implementa circuitos cerrados de tele- mos. Eso es lo que nos apasiona.”
umhsapiens 13