Los chatbots de IA están llegando a los motores de búsqueda: ¿Puedes confiar en los resultados?
Actualidad, Avances

Los chatbots de IA están llegando a los motores de búsqueda: ¿Puedes confiar en los resultados?


Google, Microsoft y Baidu están utilizando herramientas similares a ChatGPT para convertir la búsqueda en Internet en una conversación. ¿Cómo cambiará esto la relación de la humanidad con las máquinas?


Fuente: Nature

Meses después de que el chatbot ChatGPT asombrara al mundo con su asombrosa capacidad para escribir ensayos y responder preguntas como un ser humano, la inteligencia artificial (IA) llega a las búsquedas en Internet.

Tres de los motores de búsqueda más grandes del mundo (Google, Bing y Baidu) dijeron la semana pasada que integrarán ChatGPT o una tecnología similar en sus productos de búsqueda, lo que permitirá a las personas obtener respuestas directas o participar en una conversación, en lugar de simplemente recibir una lista de enlaces. después de escribir una palabra o una pregunta. ¿Cómo cambiará esto la forma en que las personas se relacionan con los motores de búsqueda? ¿Existen riesgos en esta forma de interacción hombre-máquina?

Bing de Microsoft usa la misma tecnología que ChatGPT, que fue desarrollada por OpenAI de San Francisco, California. Pero las tres empresas utilizan modelos de lenguaje extenso (LLM). Los LLM crean oraciones convincentes haciendo eco de los patrones estadísticos de texto que encuentran en una gran base de datos. 

El motor de búsqueda impulsado por inteligencia artificial de Google, Bard, anunciado el 6 de febrero, está siendo utilizado actualmente por un pequeño grupo de evaluadores. La versión de Microsoft está ampliamente disponible ahora, aunque hay una lista de espera para acceder sin restricciones. ERNIE Bot de Baidu estará disponible en marzo.

Antes de estos anuncios, algunas empresas más pequeñas ya habían lanzado motores de búsqueda impulsados ​​por IA. “Los motores de búsqueda están evolucionando hacia este nuevo estado, en el que realmente puedes comenzar a hablar con ellos y conversar con ellos como lo harías con un amigo”, dice Aravind Srinivas, un científico informático en San Francisco que en agosto pasado cofundó Perplexity: un motor de búsqueda basado en LLM que brinda respuestas en inglés conversacional.

Cambiando la confianza

La naturaleza intensamente personal de una conversación, en comparación con una búsqueda clásica en Internet, podría ayudar a influir en las percepciones de los resultados de la búsqueda. Las personas pueden confiar inherentemente en las respuestas de un chatbot que participa en una conversación más que en las de un motor de búsqueda independiente, dice Aleksandra Urman, científica social computacional de la Universidad de Zúrich en Suiza.

Un estudio de 2022 1 realizado por un equipo con sede en la Universidad de Florida en Gainesville encontró que para los participantes que interactuaban con chatbots utilizados por compañías como Amazon y Best Buy, cuanto más percibían la conversación como humana, más confiaban en la organización. .

Eso podría ser beneficioso, haciendo que la búsqueda sea más rápida y fluida. Pero un mayor sentido de confianza podría ser problemático dado que los chatbots de IA cometen errores. Bard de Google falló una pregunta sobre el Telescopio Espacial James Webb en su propia demostración técnica, y con confianza respondió incorrectamente. Y ChatGPT tiene una tendencia a crear respuestas ficticias a preguntas para las que no sabe la respuesta, lo que los expertos en el campo conocen como alucinaciones.

Un portavoz de Google dijo que el error de Bard “resalta la importancia de un proceso de prueba riguroso, algo que estamos iniciando esta semana con nuestro programa de probadores de confianza”. Pero algunos especulan que, en lugar de aumentar la confianza, tales errores, suponiendo que se descubran, podrían hacer que los usuarios pierdan la confianza en la búsqueda basada en chat. 

“La percepción temprana puede tener un impacto muy grande”, dice Sridhar Ramaswamy, científico informático con sede en Mountain View, California y director ejecutivo de Neeva, un motor de búsqueda impulsado por LLM lanzado en enero. El error borró 100.000 millones de dólares del valor de Google , ya que los inversores se preocuparon por el futuro y vendieron acciones.

Falta de transparencia

El problema de la inexactitud se ve agravado por una relativa falta de transparencia. Por lo general, los motores de búsqueda presentan a los usuarios sus fuentes (una lista de enlaces) y les permiten decidir en qué confían. Por el contrario, rara vez se sabe en qué datos se formó un LLM: ¿es la Enciclopedia Británica o un blog de chismes?

“Es completamente poco transparente cómo funcionará [la búsqueda impulsada por IA], lo que podría tener implicaciones importantes si el modelo de lenguaje falla, alucina o difunde información errónea”, dice Urman.

Si los robots de búsqueda cometen suficientes errores, entonces, en lugar de aumentar la confianza con su capacidad de conversación, tienen el potencial de desbancar las percepciones de los usuarios sobre los motores de búsqueda como árbitros imparciales de la verdad, dice Urman.

Ha realizado una investigación aún no publicada que sugiere que la confianza actual es alta. Examinó cómo las personas perciben las funciones existentes que utiliza Google para mejorar la experiencia de búsqueda, conocidas como ‘fragmentos destacados’ , en los que un extracto de una página que se considera particularmente relevante para la búsqueda aparece encima del enlace, y ‘paneles de conocimiento’ : resúmenes que Google genera automáticamente en respuesta a búsquedas sobre, por ejemplo, una persona u organización. 

Casi el 80 % de las personas encuestadas por Urman consideró que estas características eran precisas, y alrededor del 70 % pensó que eran objetivas.

La búsqueda impulsada por chatbot borra la distinción entre máquinas y humanos, dice Giada Pistilli, ética principal de Hugging Face, una plataforma de ciencia de datos en París que promueve el uso responsable de la IA. 

Le preocupa la rapidez con la que las empresas están adoptando los avances de la IA: “Siempre nos lanzan estas nuevas tecnologías sin ningún control o marco educativo para saber cómo usarlas”.

marzo 7, 2023

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Comité Editorial

Director
Dr. Stevenson Marulanda Plata

Editora
Maricielo Acero Rodríguez

Asesores Médicos
Dr. Jorge Diego Acosta Correa
Dra. Ivonne Díaz Yamal
Dr. Oswaldo Alfonso Borraez
Dr. Samuel Barbosa

Contacto comercial
Mary Stella Ardila Guzmán

NOSOTROS

Epicrisis es el órgano oficial de comunicación del Colegio Médico Colombiano. La opinión y conceptos personales expresados en los artículos firmados por un tercero no reflejan la posición de Epicrisis o el Colegio Médico Colombiano.

PBX: (+571) 746 3489 – Celular:(+57) 314 566 2174 – (+57) 323 232 4543 – (+57) 323 232 7752 – (+57) 314 566 2198Email : pqrs@colegiomedicocolombiano.org
Dirección: Carrera 7 # 69 – 17 – Bogotá, Colombia