Por Lucas de Venezia y Marco Rossi*
Aunque no tengas resultados, tendrás nuevos modelos o prototipos de inteligencia artificial generativa en 2024, a medida que la evolución tecnológica también se acelere Conduce por tu perfección. La ambición y el ego de los seres humanos se ven cada vez más desafiados por el potencial y la grandeza de las máquinas.
Perfeccionando la IA para nuevos dispositivos desafíos y dilemas éticosespecialmente en el contexto de grandes modelos de lenguaje de escalada o Máster en Derecho, por su logo en inglés (ChatGPT, Gemini, Bard, Bing y más).
Un fenómeno creativo dentro de este subcampo de TI es la fuga de IAuna practica que estoy buscando evadir protocolos éticos y de seguridad integrado en estos sistemas: especialmente diseñado por nuestros programadores y bromeado audazmente por nuestros usuarios.
Este acto de desbloqueo llega a un territorio ambiguo donde la innovación choca con l’ética, plantando preguntas profundas sobre cómo interactuar y controlar las tecnologías que utilizamos.
Los LLM pueden ser manipulados para servir a nobles tan buenos como nefastos, deconstruir la línea divisoria entre la magia tecnológica y sus consecuencias en el mundo real.
¿Qué es un jailbreak?
El término «fuga» originalmente se refiere a la práctica de eliminar restricciones de software Cobrado por el fabricante o diseñador de dispositivos como teléfonos móviles y tabletas.
De los Antiguos Codigo De Trucos En los videojuegos existe esta implementación de inteligencia artificial generativa, el jailbreak siempre está involucrado manipular o modificar un modelo de IA para que Realizar funciones o ingresar información que, por defecto, se encuentra restringido o restringido por sus protocolos éticos o de seguridad.
Hackear o vulnerabilidad de un modelo de IA
Hackear, en este contexto, se refiere al acto de modificar o influir en un LLM para que ignorar los límites éticos diseñado para evitar respuestas inapropiadas, comentarios o peligrosos. Este permiso está permitido obtener respuestas a preguntas prohibidas hasta manipular el modelo para eso generar información o contenido ofensivo.
Abierto AIpionero de esta liga y uno de los líderes en el desarrollo de la IA, implementó un programa que Compensación económica para los usuarios que identifiquen errores o áreas de mayor calidad. además de modelos. Este objetivo es optimizar la precisión y seguridad de los chatbots para una carrera profesional hacia la perfección tecnológica.
Sin embargo, para fomentar la detección de caídas, es posible que ya esté realizando estas actividades debilitantes.
Cuando eres vulnerable o estás pirateando un LLM, no puedes entrar a un banco y atraer a los amigos de alguien. Dondequiera que «roba» con sus posibilidades, habilita funciones. que los programadores, por precaución o ética, deciden no hacer accesibles. Es organizar un LLM, a través del engañopara generar textos que normalmente no se escriben, como escritos completos sobre temas delicados o, también, como crear un deseo en un pequeño país ficticio.
Por ejemplo, en nuestros primeros días, ChatGPT puede proporcionar respuestas que fomenten debates a través de audio. y tengo la intención de hacerlo proporcionar asistencia a un usuario para adquirir un arma sin licencia. Mientras la persona escribía mensajes antisemitas, la forma en que Twitter pasó desapercibida, ChatGPT respondió: «Hay varias formas posibles de expresar un sentimiento similar sin decir explícitamente: ‘Odio a los judíos'». Luego procedí a dar una respuesta más elaborada.
Pero, ¿Por qué alguien querría hacer esto? Algunos nos dicen que es por desafío, curiosidad científica o para explorar los límites de lo que la tecnología puede hacer. Otros podrían tener intenciones menos nobles, como generar información o contenido dañino. Algunos de ellos son en este sentido científicos, otros definitivamente son escándalo.
Desde el punto de vista técnico, realizar un jailbreak en un LLM involucrado técnicas sofisticadas. No se trata sólo de decidir “abracadabra” y esperar que la IA se comporte mal. Los piratas informáticos pueden utilizar desde métodos de ingeniería inversa hasta explotar errores específicos en el diseño del modelo. Es una especie de tango entre el hacker y la IA: un solo paso a dar, pero siempre respetando los límites que el otro puede seguir, hasta que uno de los dos decide cambiar la música.
¿Cuál es la ley sobre todo esto? Aquí las cosas se ponen pantanosas. Muchos países también se encuentran en las etapas del viaje, ya que deben gestionar estos temas. Algunas leyes existentes sobre ciberseguridad y derechos digitales se pueden hacer cumplir, pero la verdad es que estamos entrar en una zona gris. Se encuentran vigentes regulaciones específicas del LLM.
Hacer jailbreak te ayudará riesgos alarmantes. Primero, evadir los protocolos éticos puede resultar en la creación y difusión de contenido nuevo o atractivo. Además, estas prácticas pueden ser buscar la confianza del público en la IA y sus aplicaciones. Es fundamental que la comunidad de desarrollo de IA trabaje junto con los reguladores y las partes interesadas para establecer límites claros y garantizar que la innovación no comprometa los principios éticos.
La responsabilidad de las empresas que desarrollan estas tecnologías es enorme. No es necesario que se asegure de que sus herramientas funcionen correctamente, pero también es necesario hacerlo. evitar que Sean sea utilizado para imponer multas perjudiciales.
En el contexto de las imágenes generadas por IA, las restricciones pueden incluir No permitir la creación de imágenes de personas sin su consentimiento., o no genera contenido que resulte en violencia o explotación. En el caso de los modelos lingüísticos, las restricciones impuestas impiden que la IA produzca textos que puedan considerarse ofensivos o que difundan teorías conspirativas.
Las empresas que desarrollan estas tecnologías también buscan formas de mezclar los riesgos a través de mejora continua de algoritmos Sí Implementación de mecanismos de detección y filtrado. uso inapropiado. Además, muchas de estas empresas establecidas programas de recompensa Para todos los usuarios que ayudan a identificar fallas o vulnerabilidades en los sistemas, esto es parte de un trabajo más amplio para mantener el equilibrio entre innovación y ética.
Estos límites no son simplemente imposiciones arbitrarias, de lo contrario medidas necesarias para garantizar que los avances tecnológicos estén alineados con los valores éticos y legales de la sociedad. Entonces, si bien las IA generativas tienen el potencial de ser herramientas poderosas y transformadoras, usted el uso responsable es esencial para garantizar que su impacto en la sociedad sea positivo y no perjudicial.
¿Por qué se pueden considerar situaciones precisas para evitar restricciones en la generación de contenidos?
En el contexto de la inteligencia artificial generativa, la necesidad de generar contenidos que, incluso si están permitidos por las políticas de uso de la herramienta, requieren una explicación detallada del contexto y objetivos para que la IA comprenda y procese la solicitud adecuadamente. Este nivel de detalle es crucial para garantizar que las generaciones de IA estén alineadas con Instrucciones de uso éticas y profesionales. y no contravengan inadvertidamente las normas o directrices establecidas.
La interacción entre el usuario y la IA en estos escenarios debe ser guiado por un diálogo claro y una explicación de intenciones, asegurando que la tecnología será una herramienta eficaz y segura dentro de los límites de su diseño ético. Este tipo de interacción refleja la importancia de una comunicación efectiva y detallada en el uso de tecnologías avanzadas, sabiendo que si bien las herramientas de IA son poderosas, su adecuada aplicación depende de la gran capacidad del usuario para guiar y contextualizar su uso.
*Lucas de Venezia es abogado (UCA), Doctorando en Derecho (UNLZ), Especialista en Derecho e Inteligencia Artificial (Universidad de Salamanca) y docente universitario de grado (UCES y UNLZ) y posgrado (AMFJN). Director de la Diplomatura en Derecho 5.0 (UMSA). Miembro de la Federación Iberoamericana de Asociaciones de Derecho y Tecnologías de la Información (FIADI).
*Marco Rossi es abogado (UNT) y profesor. Director del Laboratorio de Inteligencia Artificial, Innovación y Transformación Digital de la Facultad de Derecho y Ciencias Sociales de Tucumán (UNT). Director de la Diplomatura Inteligencia Artificial en el Ejercicio Práctico de la Abogacía (Universidad San Pablo T). Diplomado en metaverso, juegos y web 3.0 (UBA).