Leído

REDES SOCIALES

¿Es posible anticipar potenciales suicidas o asesinos utilizando la IA? ¿Y detectar emociones de los usuarios por sus tuits?

Vie, 09/08/2019 - 2:16pm
Enviado en:
0 comentarios
Por Urgente24

¿Es posible predecir un potencial atacante a partir del análisis que hace puede hacer la inteligencia artificial de su actividad online? ¿Nuestros posteos en twitter permiten detectar nuestro estado de ánimo? ¿Es posible anticiparse a una persona deprimida que podría intentar suicidarse? Expertos en el tema dicen que no, porque lo que la IA realiza es un análisis matemático del lenguaje; detectando patrones que poco tienen que ver con cómo las personas entendemos el mismo. "Es bastante probable que cualquier algoritmo desarrollado para detectar hipotéticamente un potencial atacante terminaría identificando personas con problemas mentales u otros hablando sandeces, porque las computadoras no pueden entender los matices o los chistes", explicó una especialista. Además, está el dilema ético que presenta este tipo de herramienta. Sin embargo, tecnologías de este tipo ya están siendo utilizadas por compañías para analizar cómo se sienten los usuarios respecto de su marca.

Contenido

¿Puede la inteligencia artificial detectar un potencial atacante a través de sus posteos en las redes sociales? ¿Puede servir para detectar a un potencial suicida? ¿Para advertir que una persona está deprimida? ¿Es posible detectar las emociones de un usurio a través de sus tuits?

Durante sus dichos posteriores a los tiroteos de Dayton y El Paso, el fin de semana pasado, el Presidente estadounidense, Donald Trump, llamó a las compañías de redes sociales a "desarrollar herramientas que puedan detectar a los atacantes masivos antes de que actúen."

Se cree que Trump se refiere al análisis predictivo que puede realizarse a través de la inteligencia artificial, rastreando la actividad online de la gente y evaluando si constituyen un riesgo. Actualmente, explica el portal Vox, compañías como Facebook, YouTube y Twitter, utilizan software para detectar y remover contenido con discurso de odio.

Este mes, el FBI pidió recibir propuestas para "una herramienta de alerta de las redes sociales para mitigar varios tipos de amenazas." Eso suena bastante parecido a lo citado por Trump: una herramienta para identificar potenciales atacantes antes de que puedan lastimar a alguien.

Según expertos entrevistados por Sigal Samuel, de Vox, esto no es posible a nivel técnico, teniendo en cuenta la tecnología con la que contamos ahora. Existe además el dilema ético en torno a este tipo de uso de la inteligencia artificial predictiva.

Herramientas parecidas ya están siendo usadas por compañías para analizar cómo se sienten los usuarios respecto de su marca.

"Están haciendo muchos (estudios) empresas como Google o Facebook con fines comerciales. Quieren saber qué producto deben ofrecer a cada persona e incluso el momento exacto en el que más le va a interesar. Tienen acceso a los datos porque los usuarios dan su permiso al aceptar las condiciones de estos servicios", explicó Diego Redolar, neurocientífico y profesor de los Estudios de Ciencias de la Salud de la UOC (Universitat Oberta de Catalunya), según el portal Noticias de la Ciencia. "Cada empresa o institución tiene su público. A la hora de buscar, por ejemplo, qué día o qué momento es mejor para enviar un mensaje y atraer la atención, se suelen hacer pruebas. Se envía el mensaje un lunes y, si nadie hace caso, se repite un martes o se vuelve a insistir el miércoles. Así hasta que poco a poco encuentran el día y la franja horaria en los que hay más posibilidades de lograr los objetivos que se hayan marcado", agregó Ferran Lalueza, experto en redes sociales y profesor de los Estudios de Ciencias de la Información y de la Comunicación de la UOC.

También se está utilizando tecnología de inteligencia artificial para intentar identificar a personas con depresión que podrían ser potenciales suicidas, en base a sus posteos en redes sociales. Pero estas herramientas no funcionan bien. Tienen tasas altas de error y son muy malas para entender el contexto.

Esto se debe a que lo que llevan a cabo es un análisis fundamentalmente matemático del lenguaje. Por ejemplo, analiza cuántas veces aparece una letra, cuántas veces aparece al lado de otra, etcétera. Estos patrones no tienen nada que ver con cómo los humanos entendemos el lenguaje. Nosotros identificamos conceptos y los encajamos en marcos más amplios de sentido. Es por eso que, según Meredith Broussard, autora de Artificial Unintelligence, "es bastante probable que cualquier algoritmo desarrollado para detectar hipotéticamente un potencial atacante terminaría identificando personas con problemas mentales u otros hablando sandeces, porque las computadoras no pueden entender los matices o los chistes."

¿Es posible detectar emociones de los usuarios a través de las redes sociales?

En 2011, la revista Science publicó un trabajo que analizaba los tuits escritos por más de 2 millones de personas en 84 países, y que había detectado un patrón en nuestro estado anímico independientemente de nuestro país de procedencia: nos levantamos de buen humor, luego esa energía decae hasta que vuelve a aumentar antes de acostarnos. En 2017, la Universidad de Bristol analizó 800 millones de tuits en un estudio similar y en 2018, el Gobierno mexicano dijo que había desarrollado una herramienta para "interpretar la emotividad que subyace en los mensajes que su publican en la plataforma digital Twitter."

Pero también en este campo los especialistas son escépticos. "Un tuit puede reflejar el estado de ánimo, pero no hasta el punto de poder decir cómo se siente alguien en función de lo que escribe. Incluso para un profesional de la psicología o de la psiquiatría conocer el estado de ánimo de una persona es algo muy complicado. Yo diría más bien que las redes nos muestran determinados patrones de conducta", dijo Redolar.

"Algo de nuestro estado de ánimo pueden reflejar los tuits, incluso más de lo que imaginamos, pero los estudios que se han llevado a cabo tienen serias limitaciones. Se centran en cómo los estados de ánimo van evolucionando a lo largo del día o en determinado periodo del año, por lo que utilizan a usuarios muy activos que no representan al ciudadano tipo", reflexionó Lalueza.