Page 13 - UMH Sapiens 26
P. 13

Crimen y castigo

       en un algoritmo


       predictivo


                                                                                visión con reconocimiento facial y de movimientos
       Posibilidades tecnológicas y límites éticos de la IA                     que pretenden mejorar la seguridad ciudadana. La
                                                                                paradoja es que para que estos sistemas funcio-
                                                                                nen bien hay que alimentarlos con datos reales,
             ada día se generan enormes volúmenes                               para lo que se debe renunciar a ciertos derechos.
             de datos que se utilizan para tomar deci-                          Según el profesor de la UMH, “tanto la Unión Euro-
             siones. Esta manera de analizar el mun-                            pea como muchos investigadores creemos que es
       Cdo puede aportar consistencia y objeti-                                 fundamental que, por lo menos, el desarrollo de es-
       vidad, pero también grandes riesgos. Una de las                          tas tecnologías y la reflexión ética vayan a la par”.
       preocupaciones en torno a las herramientas de
       Inteligencia Artificial (IA) es que la automatización                    Plus Ethics, la spin off creada por los investigado-
       en la toma de decisiones genere discriminación.                          res de CRÍMINA en la UMH, se dedica a aspectos
       El estudio de los aspectos éticos y legales de la                        éticos relacionados con la investigación criminoló-
       Inteligencia Artificial es una de las líneas de in-                      gica y la puesta en marcha de tecnologías relacio-
       vestigación del centro CRÍMINA de la Universidad                         nadas con el ámbito legal. “Imaginemos que una
       Miguel Hernández (UMH) de Elche para el estudio                          herramienta basada en IA es capaz de realizar pro-
       y la prevención de la delincuencia. El director del                      nósticos respecto al riesgo de reincidencia, pero su
       centro, Fernando Miró, investiga cómo se tienen                          opacidad impide conocer las variables concretas
       que crear las Inteligencias Artificiales que se apli-  Fernando Miró     que se han tenido en cuenta a la hora de estable-
       can en el ámbito de la seguridad. Para los inves-                        cer el riesgo. Si asumimos que esta persona tiene
       tigadores de CRÍMINA, definir los límites que se                         un alto riesgo de reincidir, simplemente por lapun-
       deben marcar a la hora de diseñar herramientas  Director del Centro Crímina UMH  tuación que le otorga un algoritmo, ¿existe derecho
       de IA es tan importante como identificar los com-                        a la defensa?”, se pregunta el investigador. Quizás
       portamientos humanos que rodean al delito. “La                           ese algoritmo no sirva para tomar la decisión de
       IA que tenemos se le denomina débil porque no es                         privar de libertad a una persona. Por otra parte, ex-
       todo lo que puede llegar a ser. Pero realmente es                        pone Miró, con un juez siempre se puede dialogar.
       muy poderosa para la toma de decisiones”, expli-  La IA también ha servido para mejorar  la estima-  Aunque dar respuesta a estas preguntas es acu-
       ca Miró. El profesor apunta que, en cierta medida,  ción de dónde se van a producir los accidentes de   ciante, a día de hoy el riesgo de someter a la socie-
       la IA también es peligrosa si se construye la casa  tráfico relacionados con la delincuencia vial en un   dad a una dictadura algorítmica es solo posible en
       por el tejado: ¿No deberíamos empezar a pensar  proyecto de CRÍMINA con la Dirección General de   la ciencia ficción.
       cuál es el objeto de la tecnología antes de desa-  Tráfico (DGT). Con los datos de siniestralidad de la
       rrollarla?                          DGT y una Inteligencia Artificial desarrollada en la   “Estamos todavía en la fase de la intuición artifi-
                                           Universidad de Rutgers (EE.UU.), han segmentado   cial”, pero Fernando Miró opina que debemos aspi-
       Una herramienta de IA que sí ha contado desde  toda España e identificado “puntos rojos”, zonas de   rar a una ética ya incorporada en el diseño. “La tec-
       el primer momento con las consideraciones éticas  riesgo por un comportamiento humano peligroso.   nología no es neutra. Tiene un propósito, aunque
       es ModeRad. Esta herramienta, desarrollada por  “Esta IA se aplica en casi un centenar de ciudades   sea implícito, pero no es intrínsecamente buena
       investigadores de CRÍMINA y del Centro de Inves-  en Estados Unidos para lo que denominan el pre-  ni mala”, expone. En manos de la sociedad queda
       tigación Operativa de la UMH dentro del proyecto  dictive policing o policía predictiva”, explica Miró.   comprender qué se puede hacer, para qué, con qué
       europeo PERICLES y el proyecto nacional CiberHa-  Esta técnica les ayuda a tomar decisiones como por   datos, a qué se va a renunciar en términos de pri-
       che, detecta mensajes potencialmente radicales  dónde patrullar o cuántos efectivos destinar a una   vacidad. El experto de la UMH es optimista, porque
       en Twitter. ModeRad no es un policía artificial, sino  zona. Una vez más, no se trata de sustituir el razona-  en la Unión Europea sí se está marcando desde un
       una herramienta para ahorrar trabajo. Sirve para  miento humano, sino de apoyarlo en muchos datos   principio una voluntad ética que, aunque a veces
       reducir el número de mensajes que la policía tiene  empíricos bien analizados.  restringe en exceso, tiene muy en cuenta el contex-
       que leer antes de tomar la decisión de hacer una                         to de la tecnología que se está desarrollando.
       investigación jurídica o no hacerla. “Hablamos de  No obstante, reducir el comportamiento humano a
       miles y miles de tuits publicados cada segundo,  cifras no es fácil. Como explica el profesor Miró, el   A la vez, Miró considera que renunciar al potencial
       con mensajes de radicalización que provienen de  problema de la conducta delictiva es la multicau-  que supone la IA en el ámbito de la seguridad es
       movimientos extremos de derecha o de izquierda,  salidad. Además, el investigador apunta que la IA   también peligroso. La discusión respecto a la dis-
       no solo del terrorismo”, expone Miró. Además, en  no está pensada para saber la causa de las co-  criminación algorítmica sirve para recordar que los
       el caso de ModeRad hay un aspecto clave: es el  sas, sino para estimar lo que va a pasar a partir   humanos tienen sesgos, por el mero hecho de que
       humano quien analiza la posible amenaza y toma  del conocimiento profundo de las relaciones entre   los atajos que utiliza el cerebro para aprender impli-
       las decisiones. La IA se limita a reducir significati-  lo que ha pasado. Un ejemplo es el llamado pre-  can discriminación. Hay varios mitos respecto a la
       vamente la muestra.                 dictive sentencing, el uso de herramientas de va-  inteligencia artificial: la predicción, la autonomía de
                                           loración de riesgo y de IA para tomar decisiones   la máquina, la alquimia matemática y lo que Miró
       Este sistema utiliza una técnica de IA denominada  en ámbito judicial. Por ejemplo, apoyar la decisión   llama “el cuarto mito”, que es el de la perfección
       árbol de decisión, donde cada rama del árbol está  de si se  aplica la libertad condicional o vigilada.  humana. “Corremos un riesgo enorme si creemos
       compuesta de variables que, en función de su valor,                      que es posible alcanzar las verdades absolutas de
       marcan el camino a seguir hasta la hoja final, que  “Estamos trabajando mucho en esta línea para de-  esta manera. La máquina (la caja metálica) tiene
       representa una decisión. “Utilizamos por un lado  finir las claves éticas de cómo se tienen que utilizar   sesgos porque nosotros los hemos introducido ahí
       bolsas de palabras y, por otro lado, los metadatos  estas herramientas, porque nos da la sensación de   (desde la caja gris)”, sentencia el experto. A los
       asociados, como el número de seguidores o la hora  que hemos empezado a utilizarlas sin una reflexión   investigadores de CRÍMINA les gusta trabajar en
       a la que se ha publicado un tuit, si tiene una direc-  previa, como pasó con la bioética”, cuenta el pro-  cuestiones límite: “Somos el eslabón que une el
       ción web… Porque utilizar solo palabras es proble-  fesor. A los investigadores de CRÍMINA les preocu-  conocimiento científico y el normativo, nos plantea-
       mático”. Todo esto, asumiendo algo básico: que el  pan también las violaciones a derechos y garantías   mos las decisiones éticas de qué se puede hacer,
       crimen en Internet, igual que en el mundo físico,  como la propia intimidad y privacidad, frente a un   para qué y cómo, con el conocimiento que genera-
       sigue unos patrones.                mundo que implementa circuitos cerrados de tele-  mos. Eso es lo que nos apasiona.”

                                                                                                         umhsapiens  13
   8   9   10   11   12   13   14   15   16   17   18