Google regala parte de la inteligencia artificial que impulsa los chatbots

Cuando Meta compartió el código informático en bruto necesario para construir un chatbot el año pasado, las empresas rivales dijeron que Meta estaba lanzando al mundo tecnología poco conocida y quizás incluso peligrosa.

Ahora, en una señal de que los críticos de compartir la tecnología de IA están perdiendo terreno frente a sus pares de la industria, Google está tomando una medida similar. Google lanzó el miércoles el código informático que impulsa su chatbot en línea, después de mantener la tecnología en secreto durante muchos meses.

Al igual que Meta, Google ha dicho que los beneficios de compartir libremente la tecnología (llamada modelo de lenguaje grande) superan los riesgos potenciales.

La compañía dijo en una publicación de blog que estaba lanzando dos modelos de lenguaje de inteligencia artificial que podrían ayudar a empresas externas y desarrolladores de software independientes a crear chatbots en línea similares al chatbot de Google. Llamadas Gemma 2B y Gemma 7B, no son las tecnologías de inteligencia artificial más poderosas de Google, pero la compañía afirma que rivalizan con muchos de los sistemas líderes de la industria.

«Esperamos volver a involucrar a la comunidad de desarrolladores externos y asegurarnos de que» los modelos basados ​​en Google se conviertan en un estándar de la industria sobre cómo se construye la IA moderna, Tris Warkentin, director de gestión de productos de Google DeepMind. .

Google dijo que actualmente no tiene planes de lanzar su modelo insignia de IA, Gemini, de forma gratuita. Dado que es más eficaz, Géminis también podría causar más daño.

Este mes, Google comenzó a cobrar por el acceso a la versión más potente de Gemini. Al ofrecer el modelo como un servicio en línea, la empresa puede controlar más estrechamente la tecnología.

Preocupadas por el hecho de que las tecnologías de inteligencia artificial se estén utilizando para difundir información errónea, discursos de odio y otros contenidos tóxicos, algunas empresas, como OpenAI, el fabricante del chatbot en línea ChatGPT, se han vuelto cada vez más reservadas sobre los métodos y el software detrás de sus productos.

Pero otros, como Meta y la startup francesa Mistral, han argumentado que compartir código de forma gratuita (llamado código abierto) es el enfoque más seguro porque permite a personas externas identificar problemas con la tecnología y sugerir soluciones.

Yann LeCun, científico jefe de IA de Meta, argumentó que los consumidores y los gobiernos se negarán a adoptar la IA a menos que esté fuera del control de empresas como Google, Microsoft y Meta.

“¿Quiere que todos los sistemas de inteligencia artificial estén bajo el control de un par de poderosas empresas estadounidenses?” le dijo al New York Times el año pasado.

En el pasado, Google ha abierto muchas de sus tecnologías centrales de IA, incluida la tecnología central para los chatbots de IA. Pero bajo la presión competitiva de OpenAI, se ha vuelto más reservado sobre cómo se construyeron.

La compañía decidió hacer que su IA volviera a estar disponible de forma más gratuita debido al interés de los desarrolladores, dijo en una entrevista Jeanine Banks, vicepresidenta de relaciones con desarrolladores de Google.

Mientras se preparaba para lanzar sus tecnologías Gemma, la compañía dijo que había trabajado para garantizar que fueran seguras y que usarlas para difundir información errónea y otro material dañino violaba su licencia de software.

«Nos aseguramos de adoptar enfoques completamente seguros tanto en el ámbito privado como en el abierto en la medida de lo posible», dijo Warkentin. «Con el lanzamiento de estos modelos 2B y 7B, estamos relativamente seguros de que hemos adoptado un enfoque extremadamente seguro y responsable para garantizar que puedan tener éxito en la industria».

Pero los malos actores aún podrían utilizar estas tecnologías para causar problemas.

Google permite a las personas descargar sistemas que han sido entrenados con enormes cantidades de texto digital recopilado de Internet. Los investigadores llaman a esto “liberación de peso”, en referencia a los valores matemáticos particulares que aprende el sistema a medida que analiza los datos.

Analizar todos estos datos normalmente requiere cientos de chips de computadora especializados y decenas de millones de dólares. Estos son recursos que la mayoría de las organizaciones, y mucho menos los individuos, no poseen.