Entrevista al criminólogo Asier Moneva
“El predominio del odio en las redes sociales no es tan alto como parece”
Asier Moneva es criminólogo y trabaja como Personal de Investigación en Formacion (FPU), en el Centro de Investigación CRIMINA para el estudio y la prevención de la delincuencia, en la Universidad Miguel Hernández de Elche. Sus investigaciones se centran en el análisis y prevención del cibercrimen. Por su investigación titulada ¡El odio está en el aire! Pero, ¿dónde?, ha recibido el Premio Nacional al Investigador Novel 2018 en Criminología por la Sociedad Española de Investigación Criminológica (SEIC).

El discurso del odio envenena el entorno a diario. El ser humano está rodeado de comportamientos que incitan a la violencia o insultan y discriminan a los colectivos más vulnerables. Un virus que se propaga con mayor fuerza a través de las redes sociales, ya que Internet favorece el anonimato de manera que los agresores pueden esconderse tras cuentas falsas para difundir sus ofensas. Pero establecer cuando un discurso de odio puede considerarse punible es, a juicio de Moneva, un tema complejo, ya que implica enfrentar dos derechos fundamentales; el derecho a la no discriminación y el derecho a la libertad de expresión.
Pregunta. Esta quizás es una cuestión compleja de contestar pero, ¿por qué odiamos? y ¿de qué hablamos cuando hablamos de odio?
Respuesta. ¿Por qué odiamos?, es una pregunta que probablemente debería responder un psicólogo social más que un criminólogo. Esta cuestión tiene que ver mucho más con las emociones y con la naturaleza de las personas que con cuestiones criminológicas en un sentido estricto. Y, ¿de qué hablamos cuando hablamos de odio?, el odio es un concepto muy amplio y uno de los primeros trabajos que hay que hacer a la hora de estudiar un fenómeno tan complejo es delimitar ese fenómeno.
P. ¿Y cómo delimitamos el concepto de odio?
R. Esta cuestión tiene múltiples aristas en base a cómo se entiende el odio en distintas culturas y aplicando según qué enfoques. Y también es cierto que no es lo mismo el odio en un sentido criminológico que el odio en un sentido jurídico. Y de hecho un trabajo en el que se apoya mi artículo es el que escribió el catedrático, Fernando Miró, director del centro CRIMINA, que es quien elaboro una taxonomía de la comunicación violenta y el discurso de odio en Internet. Y él lo que hace es establecer 2 categorías principales que son comunicación violenta y discurso de odio. luego cinco categorías que son las que llama categorías macro, y luego incluso esas las divide en 16 micro categorías de odio, de tal forma que al final acaba hilando muy fino en cuanto a de qué hablamos cuando hablamos de odio.
P. ¿Tiene este estudio alguna relación y es una ampliación de la conocida como Pirámide del odio?
R. No, este es un trabajo independiente y que se realizó con un análisis que llamamos análisis interjueces. Lo que hicimos fue entrenar a investigadores expertos en materia de odio para distinguir los criterios que Fernando Miró había delimitado en su taxonomía. Lo que hacían estos investigadores era para empezar, formarse en odio y después, leer miles de mensajes de Twitter. Una vez que ya habían recibido formación suficiente en materia de odio lo que se hacía era emparejarlos de tal forma que debían llegar a acuerdos sin que ellos pudieran debatir, sino que cada uno recibía una pequeña muestra de mensajes. Los clasificaban siguiendo los criterios de la taxonomía y luego se analizaban los resultados de forma estadística. Más tarde se comparaban las categorías en las que habían clasificado cada mensaje cada uno y si alcanzaban un acuerdo estadísticamente significativo entonces concluíamos que eran actos para clasificar de nuevo las categorías. Y esta fue la forma de validar empíricamente las categorías que teóricamente se habían predefinido antes. Y este estudio parte de esa taxonomía, de esa diferenciación y del criterio de los interjueces que establecimos.

P. ¿Así que la idea es intentar separar aquellos mensajes que pueden considerarse mensajes de odio, como los delitos de odio, de aquellos que no?
R. Sí, aunque la criminalización de conductas ofensivas también es un debate complejo. Aquí nos metemos en terreno pantanoso, ya que esto también es un poco más del dominio de un jurista que de un criminólogo. Pero es cierto que hay un debate amplio sobre si el odio se debe castigar, sobre qué tipo de odio es realmente delito y qué tipo de odio no. Fernando Miró discute sobre esto en su artículo y nuestra idea era ser capaces de diferenciar cuáles eran las conductas que se podían englobar dentro de algo así como discurso radical más que discurso de odio que puede ser castigado penalmente, sino una categoría un poco más amplia, que fuera capaz de distinguir discurso radical del que no lo es. Y esto viene de una motivación previa que es la de las Fuerzas y Cuerpos de Seguridad del estado (FFCCSE), viéndose incapaces de monitorizar toda la actividad radical que hay en redes sociales, entonces ellos se encuentran con millones de tuits, y son incapaces de leer todos los mensajes para determinar cuál puede formar parte de un proceso de radicalización de un usuario. Así que nuestra motivación es echarles un cable y tratar de eliminar ruido para que en lugar de leerse un millón de tuits solo se tengan que leer, por ejemplo, veinte mil.
P. Pero el odio es un sentimiento no un delito en sí, ¿cómo luchar contra él si lo consideramos un concepto impreciso a efectos penales?
R. La pregunta es acertada, pero voy a hacer una analogía, ¿cómo se lucha contra el delito en general si no es a efectos penales? Bueno pues hay diferentes formas de luchar contra el delito y de hecho la vía penal es la mas eficaz. Hay muchas estrategias para prevenir el crimen desde distintas ideologías o desde distintas perspectivas y nosotros por la que abogamos en este artículo que es la que rige el funcionamiento de nuestro centro y de nuestras líneas de investigación es la que se conoce como prevención situacional del crimen. Lo que nosotros hacemos es tratar de poner trabas no para que el individuo cambie su forma de ser o deje de ser un delincuente, sino para que no pueda efectivamente cometer el delito. De la misma forma, de esa filosofía se extrae también la rama de la detención temprana. Como no podemos evitar que alguien odie y que alguien publique mensajes de odio en redes sociales lo que vamos a tratar de hacer es identificar que contenido es para darle estas instrucciones a las FFCCSE, para que puedan retirarlo. O incluso a Twitter porque esta plataforma puede retirar esos mensajes y decidir que contenido se publica y cuál no. Si nosotros le decimos a Twitter cuáles son las características de los mensajes que pueden ser radicales ellos lo que pueden hacer es retirar, bloquear cuentas y de esta forma no evitas que la gente odie, pero evitas que el odio se disemine.
P. ¿Cree que hay más odio en las redes sociales que en la vida real?
R. No, no creo. Lo que pasa es que en redes sociales el contenido que se publica se magnifica, porque llega a mucha más gente y es muy fácil que se difunda. Podemos hacer otra analogía con la Teoría de los Seis Grados de Separación, que dice que todas las personas del mundo están conectadas a través de otras seis personas. Pues imaginemos que en Twitter consigues que un tipo famoso retuitee tu mensaje, entonces es posible que estés llegando a millones de personas que de otra manera no llegarías. Si uno odia en su vida privada nadie se va a enterar, pero si lo haces en redes sociales eso se convierte en un altavoz, es publico todo el mundo lo ve. Por eso parece que hay más pero realmente no hay tanto. De hecho, una cosa curiosa que hemos encontrado en nuestro estudio es que la prevalencia o predominio del odio es escasa.
P. Respecto a eso, en vuestro estudio afirmáis que el predominio de este tipo de mensajes ronda entre un 2 y un 5%, que no es un porcentaje excesivo, pero hace mucho ruido ¿no?
R. Claro, hace mucho ruido, sobre todo porque como digo, se tiende a magnificar ciertos mensajes, cuando un mensaje es muy llamativo. Esto tiene que ver también con el tema de la difusión de contenidos por medios de comunicación sobre que los eventos improbables causan gran impacto, que se conoce como Teoría del Cisne Negro. Realmente de los contenidos que se publican de este 5% del que estamos hablando ni siquiera todo es odio del que sería penalmente perseguible, sino que de hecho sería una pequeña parte del total. Lo que ocurre es que nosotros hemos categorizado el hate speech (discurso de odio), como eso, como la categoría amplia de comunicación violenta y discurso de odio o contenido radical, pero el odio penalmente punible es muchísimo menor todavía.
P. ¿Estamos hablando de lo que ahora se suele conocer como odiadores profesionales?
R. Sí, algunos de los usuarios que emiten odio con frecuencia pueden denominarse haters. Pero claro, aquí estamos hablando de mensajes no de cuentas, es decir, no de personas. Imaginemos que Twitter tiene 1000 usuarios, pues no estamos diciendo que 50 usuarios sean radicales, sino que 50 mensajes que se publican de esos mil son radicales. Una persona puede ser la que publique el 80% de los mensajes. Este hecho, es otra de las cosas que se encuentra de forma consistente en criminología que se llama Principio de Pareto, que asegura que una pequeña parte de las personas es responsable de una gran parte de los delitos. Y esto en odio también es así, una pequeña parte de los usuarios de Twitter es responsable de gran parte del odio que se disemina.
P. ¿Y cómo se puede frenar el odio en las redes sociales?
R. Eso es complicado, pero ahora lo que está haciendo, por ejemplo Facebook, es establecer unas nuevas líneas maestras sobre las que dirigir su política de publicación de contenidos. Y es curioso porque hasta ahora ellos tenían unos criterios objetivos por los que decidían si se publica un mensaje o no dependiendo de si contiene violencia, pero claro, ¿qué es violencia? Ahora lo que están tratando de hacer es, por así decirlo, democratizar la decisión de cuál es un contenido que se debe retirar de ahora en adelante y para eso están creando una junta de expertos que recibirá peticiones del público en general. Cuando una petición reciba un número de votos determinado llegara a esa junta de expertos de diferentes países del mundo y de distintas culturas que puedan interpretar un mismo mensaje desde distintas aristas. Y si al final deciden que ese mensaje es de contenido violento será cuando lo retiren.
P. ¿Pero esta forma de actuar implica un volumen de trabajo enorme, no?
R. Sí, pero a esto se suma la implantación de algoritmos de detención, lo que llamamos inteligencias artificiales (IA). Por ejemplo, nuestro algoritmo es una IA que estamos desarrollando en un proyecto europeo que se llama “Pericles” que en sus siglas en ingles se traduce como “Recomendación de políticas y mejores herramientas de comunicación para las agencias de seguridad y cumplimiento de la ley que eviten la radicalización violenta”. Nuestra inteligencia artificial se llama ModeRad, y sirve para detectar contenido radical. Y esto es lo que tienen también las redes sociales, ya que ellas disponen de sus propias IA que les ayudan a determinar que contenido es odio y cuál no. Así que la IA repasa cada mensaje y cuando ve un mensaje que tiene indicadores de riesgo entonces o bien lo manda al comité de expertos o si son muy claros directamente bloquea el contenido.

P. ¿Y lo que se buscaría con todo esto es finalmente denunciar al emisor de dichos mensajes?
R. Yo creo que a Twitter y a Facebook no les importa tanto que alguien responsable por publicar un mensaje sea castigado, lo que les interesa es que la gente no pierda confianza y no se sientan inseguros ni incómodos en su plataforma por leer mensajes que no tienen por qué leer. Así que ellos trabajan un poco más en el sentido situacional, y si algo genera incomodidad en sus usuarios, pues lo quitan y así lo cortan de raíz. Y en cuanto al supuesto agresor si alguien lo denuncia y va a juicio en su país yo creo que les es más indiferente.
P. Hemos comentado antes que el odio en sí no es punible, ¿pero si se pudiera denunciar se podría estar buscando lo que se llama un efecto disuasorio?
R. En realidad el odio es punible cuando se manifiesta y si se puede probar se puede castigar. Lo que no se puede castigar es el sentimiento de odio de una persona, o sea no se puede castigar una emoción. Pero se pueden castigar los actos a través de los cuáles este odio se manifiesta o queda patente. Lo que la criminología ha demostrado de forma bastante consistente es que aplicar penas más graves o criminalizar nuevas conductas de una forma severa no afecta tanto a que la gente deje de cometer ciertos delitos o deje de realizar ciertos comportamientos. A las personas les importan otras cosas más allá de la pena con la que pueda ser sancionado. Por ejemplo, podemos hablar de la certeza con la que va a ser sancionada una conducta, si tu garantizas que una persona que publica odio o que va a cometer un acto de odio va a ser castigada y que no va a tener ninguna probabilidad de escaparse es posible que ese efecto disuasorio o efecto autocensura tuviera un efecto mayor. Pero el problema es que la gente ve muy improbable que por publicar un mensaje puedan recibir una sanción, aunque la amenaza de la sanción sea la cárcel, que por cierto la cárcel también parece que sea muy disuasoria pero para ciertos delitos que son más leves muchas veces son más efectivas penas alternativas como las multas.
P. ¿Quizás tocar el bolsillo de las personas es más disuasorio?
R. Sí, pero por que la gente lo ve como más tangible, más inmediato más real y más probable que el hecho de ir a la cárcel.
P. ¿Entonces también puede ocurrir que no seamos conscientes de que ciertos mensajes en las redes sociales pueden ser punibles?
R. Sí, como decía la gente no es muy consciente de que eso puede tener una repercusión penal, pero es que la gente que es consciente o que lo sabe lo ve improbable, cree que no va a ocurrir, y piensan, ¿por que se van a fijar en mí? Y además al hilo de esto el ciberespacio en general, pero las redes sociales en particular facilitan que una persona pueda ser anónima cuando expresa una opinión y esto lo que hace es que seas más difícil de identificar. Tú puedes crearte una cuenta falsa desde la que publicar mensajes de odio y entonces, ¿a quién castigas?
P. Pero al final todo deja huella en la red, ¿no?
R. Claro que te pueden encontrar, pero esto ya exige iniciar un proceso de investigación al que tienes que dedicar recursos, y a través de un perfil falso generalmente lo que se va a hacer es cerrar el perfil qué es lo que menos recursos exige. Iniciar un proceso de investigación al final requiere mucho tiempo y esfuerzo.
P. Hace unos días leía que la Fiscalía considera delito la incitación al odio hacia los nazis y que una agresión a una persona de ideología nazi, o la incitación al odio hacia tal colectivo, puede ser incluida en este tipo de delitos, ¿podríamos estar llegando a lo que el filósofo Carl Popper llamaba la Paradoja de la Tolerancia?
R. Sí, esto tiene también mucho que ver con el tema de la corrección política, ¿hasta qué punto debemos ser políticamente correctos? Creo que esto va un poco más allá del tema de la paradoja de la tolerancia. Y me refiero a que todos los ciudadanos tienen los mismos derechos aunque crean en cosas que van en contra de otros. Pero claro, no se puede castigar a alguien por cómo piensa, aunque si se puede castigar a alguien por cómo actúa más allá del pensamiento. Uno de los principios que rigen el castigo penal es que el pensamiento no delinque. Y por eso creo que la línea va un poco más allá, si tú emites odio aunque sea hacia un colectivo que genera rechazo social, pues como somos todos iguales ante los ojos de la ley te van a tener que sancionar. Ahora bien, ¿hasta qué punto hay que tolerar cosas que son intolerables? y este es otro aspecto de la pregunta, pues evidentemente hay que establecer límites. Porque si no es como lo que decía Popper, al final si toleras que otra persona sea intolerante acabas con tu poder de tolerar. Es complejo pero creo que no es exactamente lo mismo, todos somos iguales ante la ley, todos si cometemos un delito, al margen de contra quien sea, deberíamos responder ante la ley, al margen del tipo de persona que sea.
P. Antes nos ha comentado algo sobre el Proyecto “Pericles”, ¿puede hablarnos un poco más en profundidad sobre él?
R. Básicamente proporcionamos una inteligencia artificial a las policías que forman parte de un consorcio, para que la prueben y determinen si esta IA realmente es útil para el propósito para el que ha sido ideada. Esta función es detectar mensajes radicales y así ayudarles en su trabajo de monitorización de redes sociales. El proyecto “Pericles”, en sí, es una aproximación integral preventiva al fenómeno de la radicalización y como digo, la función de nuestra IA es detectar mensajes que puedan estar asociados no solamente con radicalización yihadista, sino también con radicalización en los deportes, la política u otros ámbitos. Y aquí ya no hablamos solamente de un discurso de odio en Twitter, sino de una radicalización que podría llevar a un delito. Hablamos de perseguir a alguien en concreto que podría estar fanatizándose, como ocurre con el islamismo radical para intentar frenar un suceso antes de que este ocurra.
P. ¿Por lo tanto este proyecto busca más la prevención que la erradicación del delito?
R. El enfoque que sigue el proyecto sí que es más holístico, pero realmente la IA de la herramienta se centra en redes sociales. Porque no significa que una persona que publique un mensaje que la herramienta detecte como radical este en proceso de radicalización, puede que esa persona solo tenga un calentón. La herramienta por cierto y esto es de capital importancia, es un apoyo más para la policía, ellos ya tienen sus investigaciones y el trabajo policial no va a ser sustituido por la herramienta. Es la policía quien dice a quién hay que investigar u organiza sus propias investigaciones y tiene sus propios procesos que debe seguir. La herramienta es un apoyo adicional para la propia policía.
P. ¿Así que ya están colaborando con los Cuerpos y Fuerzas de Seguridad del Estado?
R. Del Estado español en concreto no. En “Pericles” existen lo que se llama agencias del orden. Son de toda Europa, pero entre ellas y en la actualidad no están ni la Guardia Civil ni la Policía Nacional. Pero si participa, por ejemplo, la Policía Local de Madrid. Estas agencias son al final quienes validan la herramienta y te dicen si tiene funcionalidades que para ellos van a ser útiles o no, si vamos por el buen camino, si esta funcionalidad la van a poder usar, si no sabrían cómo usarla o si les viene mejor que tuviera una opción en la que pudieran identificar tal o cuál característica. En definitiva ellos son los que dan feedback a los desarrolladores de la herramienta para que se ajuste a las necesidades de la policía con criterios un poco más técnicos.

Enrique Fernández Arques