La LLaMA anda suelta

24 de Noviembre de 2024

La LLaMA anda suelta

LLaMA

La "fuga" de esta poderosa inteligencia artificial creada por Meta resulta preocupante y más que recapturarla, que no se puede, la opción parece ser superarla

El 3 de marzo pasado ocurrió uno de los incidentes más preocupantes del mundo de la inteligencia artificial; uno que hace pensar que tal vez no esté tan lejana la posibilidad de que todo el mundo pase a ser de la inteligencia artificial: LLaMA se filtró a la red apenas una semana después de haber sido presentada.

LLaMA es una inteligencia artificial “generativa” del tipo “extenso modelo de lenguaje”, o LLM por su sigla en inglés. ChatGPT, desarrollado por OpenAI, pero actualmente propiedad de Microsoft, es el ejemplo más conocido de los LLM; aunque existen muchos otros, como Bard o PaLM de Google, Chinchilla de Deepblue y LLaMA que es una IA desarrollada por Meta, la compañía que antes era Facebook.

El nombre de LLaMA deriva de Large Language Model Meta AI y fue presentada, con distintos “tamaños” y capacidades el 24 de febrero como una inteligencia artificial de última generación “diseñada para ayudar a los investigadores a avanzar en su trabajo en este subcampo de la IA”.

La idea era que LLaMA fuera de código abierto aunque restringido para “la comunidad de investigación que no tiene acceso a grandes infraestructuras” como las que requieren otros modelos de lenguaje, para que pudieran analizarla, copiarla y alterarla con fines de investigación, señaló la compañía en un comunicado. El único requisito era que los investigadores mandaran su solicitud y un correo electrónico a Meta.

De acuerdo con las mediciones hechas y publicadas por la propia Meta, LLaMA-13B (es decir, que funciona con 13 mil millones de parámetros) tiene resultados superiores a GPT-3, la cual tiene unas 13 veces más parámetros (175 mil millones); mientras que la versión de LLaMA con más parámetros (la 65B o de 65 mil millones) es equivalente a los modelos de lenguaje más grandes, en particular con PaLM de Google que tiene 540 mil millones de parámetros.

Apenas una semana después de su presentación, LLaMA-13B fue publicada en 4chan, un sitio “donde cualquiera puede publicar comentarios y compartir imágenes” de manera anónima y donde “los usuarios no necesitan registrar una cuenta antes de participar en la comunidad”. Actualmente cualquiera puede descargar la versión que quiera de sitios como GitHub.

Una LLaMA rebelde

LLaMA

A pesar de su atractivo nombre, LLaMA no se parece ChatGPT, Rework o Bard ya que no es amable con el usuario de internet lego en materia de IA; para usarla se requieren amplios conocimientos y cierta experiencia en el campo; sin embargo, los desarrolladores pueden generar interfases más amables.

Jack Clark, cofundador de la compañía de IA Anthropic dedicada a explorar la seguridad de las IAs, resume las dos posiciones que se han dado en torno a la fuga de LLaMA: Por un lado se considera una buena noticia porque seguramente acelerará la innovación en el campo.

Por otro lado, el problema es que de acuerdo con Clark esa innovación es “muy preocupante”, ya que “es intrínsecamente difícil de controlar”, ya sea en manos de un “estado hostil” o de, digamos, un joven de 17 años que trabaja en el garaje de casa de sus padres.

Cabe mencionar que la innovación ya estaba funcionando con el esquema original de LLaMA; de hecho, muchos de los LLMs de código abierto que circulan actualmente están basados en LLaMA, como Alpaca, elaborado en la Universidad de Stanford, lanzado a mediados de marzo, y Vicuna, desarrollada por investigadores de las universidades de Stanford, Carnegie Mellon y de California en Berkeley y San Diego, que tal parece que iguala el rendimiento de GPT-4.

El pasado 6 de junio, dos senadores estadounidenses, el demócrata Richard Blumenthal (presidente del Subcomité de Privacidad, Tecnología y Ley) y el republicano Josh Hawley, mandaron una carta a Mark Zuckerberg, CEO de Meta, pidiéndole explicaciones sobre la “fuga” (sic) de LLaMA, reclamando la baja seguridad que se tuvo desde el inicio e insinuando con las comillas que dudaban que realmente hubiera sido involuntario.

Hace una semana en este espacio se especificó que ChatGPT sigue ciertas normas éticas, de respeto a datos personales y que se negaría a, por ejemplo, escribir un ensayo sobre cómo las vacunas causan autismo.

Los senadores reclaman que LLaMA no tiene esos controles, lo que podría prestarse “para su uso indebido en spam, fraude, malware, violaciones de privacidad, acoso y otros delitos y daños”.

Además, agregan, ChatGPT se negaría a escribir “una nota fingiendo ser el hijo de alguien que pide dinero para salir de una situación difícil… En contraste, LLaMA producirá la carta solicitada, así como otras que involucren autolesiones, delitos o antisemitismo”.

Epílogo de calma, pero no tanta

Desarrollar y entrenar a una IA es muy caro (especialmente la fase de entrenamiento, que requiere de seres humanos que les estén dando retroalimentación); no en balde hasta ahora son los grandes gigantes tecnológicos quienes ha realizado las principales innovaciones, y serán ellos, de acuerdo con Clark, los que puedan adecuarse a las regulaciones cuando estas existan (tanto en Estados Unidos como en la Unión Europea ya está en proceso).

También serán los únicos que tendrán los recursos y la capacidad para incorporar los avances tecnológicos y las formas de entrenamientos que permitirán crear IAs más eficientes, veloces y capaces que harán obsoletas a las actuales.

Es más, las estimaciones hechas por Anthropic consideran que los verdaderos riesgos de las IAs, desde el punto de vista técnico, iniciarán en torno 2030 y aunque sucediera de forma más temprana, lo más posible sería que la legislación y los mecanismos para implementarla ya estuvieran listas.

Claro que ninguna de esas cosas aplaca el temor de que usando LLaMA haya quien cree una IAs generativa capaces de generar código para hacer otras IAs generativas que harán otras y otras… Ante eso, lo menos grave sería que nuestro concepto de la palabra “viral” adquiera nuevas acepciones.