
Google ha presentado innovaciones en búsqueda usando aprendizaje automático, que van más allá de presentar resultados relevantes a los términos que introducimos y es capaz de encontrar gente en necesidad de ayuda.
La búsqueda de Google ya hace algo parecido, ofreciendo información adicional, como teléfonos de ayuda, si buscamos ciertos términos relacionados con el suicidio, el abuso de drogas y la violencia doméstica entre otros. Sin embargo, eso sólo funciona si introducimos esos términos, en otras palabras, si sabemos que necesitamos ayuda y la estamos buscando; pero, ¿qué ocurre cuando ni nosotros mismos sabemos que estamos en esa situación?
Según Google, su nuevo modelo de Inteligencia Artificial, MUM, es capaz de inferir las verdaderas intenciones tras las preguntas y búsquedas que hacemos y detectar si necesitamos ayuda, mostrando información fiable en respuesta. Será implementado en la búsqueda de Google a lo largo de las próximas semanas, pero ya ha adelantado cómo cambiará.
En vez de centrarse en mostrar resultados relacionados con los términos introducidos, la IA es capaz de encontrar 'crisis personales' en las que podamos encontrarnos, y mostrar ayuda relacionada incluso aunque no lo hayamos pedido expresamente. Esta ayuda también será más fiable y dependiente de nuestra situación, gracias a la colaboración con organizaciones locales. MUM también es capaz de traducir entre 75 idiomas diferentes, así que será capaz de reaccionar sin importar dónde estemos o cómo escribamos. Cada vez que MUM es entrenado en una tarea, como clasificar la naturaleza de una petición de búsqueda, lo hace en todos los idiomas soportados al mismo tiempo, para evitar que un idioma predominante (como el inglés) reciba todas estas mejoras.
Junto con MUM, Google también ha implementado BERT, que en su caso se ha centrado en comprender el uso de contenido explícito (sexualmente, en concreto) y de filtrarlo mejor en los resultados de búsqueda. Google ya hace años que ofrece SafeSearch, una opción que nos permite 'limpiar' los resultados, tanto si somos menores de 18 años o si simplemente no queremos encontrarnos con contenido sexual cada vez que hacemos una búsqueda.
BERT ha reducido las probabilidades de que Google muestre semejante contenido si tenemos SafeSearch activo, reduciendo la cantidad de contenido 'chocante' en un 30% en el último año; en concreto, Google afirma que ha evitado el impacto que este tipo de filtros tiene para las mujeres y las personas no blancas, mejorando la efectividad en búsquedas relacionadas con la etnia, la orientación sexual y el género.