23 de noviembre de 2024 - 8:31 PM
Home Chivas del Dia Google ahora sabrá si alguien se quiere suicidar y le brindará ayuda en línea
Chivas del DiaDestacadasNacionalNoticias de Colombia

Google ahora sabrá si alguien se quiere suicidar y le brindará ayuda en línea

Quizá usted hizo parte de los colombianos que le preguntaron a Google ¿qué decirle a una persona con depresión?, entre octubre de 2020 y octubre de 2021. Y esta no fue la única consulta relacionada con temas de salud mental. Son tantas que el gigante tecnológico anunció que mejorará sus algoritmos basados en inteligencia artificial (IA) para ofrecer búsquedas más seguras, ya que son preguntas muy serias.

En el listado aparecen: ¿Qué es la depresión y cuáles son sus síntomas?¿cómo calmar un ataque de ansiedad?¿por qué lloramos de repente?¿qué comer para la ansiedad?¿para qué sirve el estrés?

Los anteriores son interrogantes que giran alrededor de trastornos o enfermedades mentales que en sí mismos requieren de apoyo profesional. Una alerta a la que Google ya le puso la atención para ayudar de manera rápida y eficiente con información relevante.

¿Cómo lo hará? Los algoritmos avanzados presentados para entregar la información adecuada son dos. El primero tiene el nombre de BERT (Bidirectional Encoder Representations from Transformers) y su función es comprender mejor lo que la persona busca: tienen la intención de encontrar contenido explícito. El segundo se llama MUM (Ver Radiografía).

“Ambos aportan elementos muy importantes para que las búsquedas sean más seguras. Son innovaciones que nos ayudan a entender mejor las consultas en las que los usuarios más necesitan información relevante y de calidad como en los casos relacionados con el suicidio, la violencia doméstica, el bullying y el acoso sexual”, explicó Susana Pabón, gerente de comunicaciones corporativas de Google Latinoamérica.

De acuerdo con la compañía, en las próximas semanas estos desarrollos se pondrán en marcha. Esto significa que, por ejemplo, si usted le pregunta al motor de búsqueda algo relacionado con un tema de crisis personal (depresión, suicidio, bullying), este le empezará a mostrar líneas de ayuda locales y centros de atención.

Además, fuentes confiables en más de 70 idiomas: esto incluye consultas sobre pensamiento suicida, distintos tipos de violencia como la domestica y de pareja, abuso sexual y consumo de sustancias psicoativas.

Resultados prácticos

Google explicó que al mejorar sus modelos de IA (entrenarlos más) también ayudarán a reducir las páginas de spam poco útiles y a veces peligrosas que aparecen en los resultados . En esta parte es donde el modelo MUM cumplirá un papel importante: va a mejorar la calidad de la protección contra los contenidos pirata.

“Podremos detectar mejor las consultas sobre crisis personales en el mundo, trabajando con socios locales de confianza para mostrar información práctica en más países”, indicó la compañía.

Para José Julián Garcés, médico investigador e integrante del grupo de Modelado Matemático de Eafit, la implementación de estos algoritmos de inteligencia artificial en la búsqueda puntual de este tipo de temas es importante.

Sin embargo, fue enfático al afirmar que solo el tiempo dará la razón sobre la efectividad que puedan llegar a tener, dado que en el campo de la IA existen unos sesgos o “bias” (como se dice en inglés) que surgen cuando se entrenan estos sistemas. “Podrá brindar más seguridad a los pacientes al momento de consultar sobre un tema específico, evitando darle información que dada su condición de salud podría ser interpretada de manera inadecuada, o que incluso podría atentar contra su integridad”, explicó el médico Garcés.

Mantener a los usuarios seguros en la búsqueda igual significa ayudarles a estar alejados del contenido (páginas web) que no están buscando y que no se crucen, por ejemplo, con recomendaciones impactantes e inesperadas que los lleven a tomar malas decisiones, debido a que por lo general las personas acuden al motor de búsqueda confiando en un buen consejo.

“Esto puede ser un desafío porque a veces los creadores de contenido usan términos benignos para etiquetar contenido explícito o sugerente, y el contenido más predominante que coincide con tu búsqueda puede no ser lo que pretendías encontrar. En estos casos, incluso si las personas no están buscando directamente ese contenido explícito, podría aparecer en sus resultados”, dijo Pabón.

Por el bien de los usuarios

Según el Ministerio de Salud, el 44,7 % de las niñas, niños y adolescentes en Colombia tienen alguna afectación o algún problema de salud mental, además el 6,6 % de la población en el país tiene ideación suicida.

David Andrés Montoya Arenas, doctor en Psicología y Neurociencias, y docente de la UPB, ve con muy buenos ojos este avance en el motor de búsquedas de Google porque, dijo él, favorecerá la atención oportuna a la población y más en estos tiempos en los que el aislamiento por la pandemia hizo que aumentara la demanda de ayuda profesional para temas de salud mental.

“Es muy positivo que la tecnología sea utilizada con propósitos de disminuir los riesgos psicoemocionales, dado que esta se creó en principio para mejorar la calidad de vida. Mejorar los motores de búsqueda en Google podrá facilitar una atención rápida a aquellas personas que están en medio de una urgencia psicológica”, dijo Montoya.

El modelo BERT se ha implementado en el último año para reducir el contenido explícito en las búsquedas relacionadas con el origen étnico, la orientación sexual y el género que puede afectar de manera desproporcionada a las mujeres. Y ya arrojó los primeros resultados: ha reducido la presencia de resultados inesperados en un 30 %. La siguiente meta será hacer la misma tarea, pero con los temas de crisis personal y así salvar más de una vida.

Porque más que una búsqueda, muchas personas necesitan un profesional, y ese consejo puede ser fundamental desde el buscador.

Fuente; El Colombiano

Leave a comment

Deja una respuesta