General
Radzivon Aljovik
Entusiasta de la automatización de bajo código
9 de julio de 2024
En un experimento innovador, Anthropic, una empresa líder en investigación sobre IA, ha colaborado con el Proyecto de Inteligencia Colectiva para redactar una constitución para un sistema de IA utilizando las aportaciones de una muestra diversa del público estadounidense. El novedoso enfoque, denominado "IA Constitucional", pretende crear sistemas de IA transparentes y responsables, incorporando principios legales y éticos directamente en el proceso de entrenamiento de la IA.
Este artículo profundiza en los entresijos de esta innovadora investigación, explorando la metodología, los resultados y las implicaciones de largo alcance para el futuro de la gobernanza de la IA en una era en la que los modelos lingüísticos avanzados se integran cada vez más en sectores críticos como la gobernanza, el poder judicial y la formulación de políticas.
Puntos clave: El experimento de colaboración entre Anthropic y el Proyecto de Inteligencia Colectiva ha dado como resultado una "constitución pública" para un sistema de IA, redactada por una muestra representativa de ~1.000 estadounidenses. La constitución pública ai hace hincapié en la objetividad, la imparcialidad y la accesibilidad, y los modelos entrenados con ella demuestran un rendimiento comparable al de los entrenados con la constitución de Anthropic, al tiempo que muestran un sesgo reducido. El experimento pone de relieve los retos y las consideraciones que hay que tener en cuenta a la hora de incorporar la aportación democrática al desarrollo de la IA, pero representa un paso importante hacia la alineación de los modelos lingüísticos avanzados con los valores humanos.
La IA Constitucional es una metodología innovadora desarrollada por Anthropic para garantizar que los sistemas de IA funcionen en consonancia con principios normativos explícitos, de forma similar a como una constitución rige el comportamiento de una nación. En el corazón de la IA Constitucional Antrópica se encuentra la definición de un conjunto de valores y principios de alto nivel que sirven de marco rector de la IA. Estos principios se elaboran cuidadosamente para garantizar que las acciones de la IA se ajusten a las normas y expectativas de la sociedad, promoviendo comportamientos beneficiosos y minimizando al mismo tiempo el potencial de resultados perjudiciales.
Para inculcar eficazmente estos principios a la IA, la IA Constitucional emplea técnicas avanzadas como:
Otro aspecto crítico de la IA Constitucional es la meticulosa curación de los datos y la arquitectura de entrenamiento de la IA. Seleccionando y preprocesando cuidadosamente los datos utilizados para entrenar a la IA, los investigadores pueden asegurarse de que el sistema esté expuesto a un conjunto equilibrado y representativo de ejemplos que refuercen los comportamientos y valores deseados. Además, la propia arquitectura de la IA está diseñada para promover la alineación con los principios constitucionales, incorporando mecanismos que fomenten salidas útiles, inofensivas y honestas.
Al integrar estos principios directamente en el proceso de toma de decisiones de la IA, la IA Constitucional pretende crear sistemas que se esfuercen proactivamente por operar dentro de unos límites éticos y legales predefinidos. Esto significa que la IA tratará activamente de:
El objetivo es desarrollar sistemas de IA que no sólo sean muy capaces, sino que también estén intrínsecamente alineados con los valores humanos y las expectativas de la sociedad.
El desarrollo de la IA Constitucional representa un importante paso adelante en el campo de la gobernanza y la ética de la IA. Al establecer un conjunto claro de principios normativos e integrarlos en la funcionalidad básica de la IA, los investigadores pueden crear sistemas más transparentes, responsables y fiables. Este enfoque tiene el potencial de mitigar muchos de los riesgos y retos asociados al despliegue de la IA en ámbitos críticos como la gobernanza, el poder judicial y la formulación de políticas, garantizando que estos sistemas funcionen al servicio del bien común.
El desarrollo de la IA Constitucional está impulsado por varias motivaciones de peso que abordan los retos críticos que plantea la creciente integración de los sistemas de IA en diversos aspectos de la sociedad:
En resumen, la IA Constitucional está motivada por la acuciante necesidad de garantizar que los sistemas de IA funcionen de forma ética, conforme a la ley y digna de confianza. A medida que estas tecnologías se integran cada vez más en ámbitos críticos y procesos de toma de decisiones, la IA Constitucional proporciona una poderosa herramienta para crear sistemas de IA que sean transparentes, responsables e inherentemente alineados con los principios que sustentan nuestra sociedad. Al dar prioridad al desarrollo y despliegue de la IA Constitucional, podemos liberar el inmenso potencial de estas tecnologías, mitigando al mismo tiempo los riesgos y desafíos que plantean.
Latenodede Anthropic proporciona a los usuarios una herramienta eficaz para aprovechar los sistemas de IA alineados con los valores públicos sin la complejidad de gestionar la infraestructura de formación del modelo. El intuitivo editor visual de la plataforma simplifica el proceso de integración de la IA Constitucional con otros sistemas mediante API, permitiendo a las organizaciones incorporar sin esfuerzo los principios éticos de la IA en sus procesos de automatización. Utilizando Latenode, los usuarios pueden acceder cómodamente a las funciones de la IA Constitucional, incluidas sus capacidades de mitigación de sesgos, toma de decisiones éticas y cumplimiento legal. La integración también permite a los usuarios cambiar sin problemas entre distintas configuraciones de la IA Constitucional Antrópica, en función de sus necesidades y presupuesto específicos. Por ejemplo, crear un script para un chatbot de atención al cliente que proporcione respuestas imparciales y éticas es sencillo.
Éste es el aspecto del guión:
Y aquí está el resultado de este escenario, en el que un chatbot ya creado que utiliza Latenode proporciona una respuesta imparcial a una consulta de un cliente:
Puedes obtener más información sobre este script y la integración con Latenode en este artículo. La integración con Latenode ofrece algunas ventajas clave:
Si necesitas ayuda o consejo sobre cómo crear tu propio script o si quieres replicar éste, ponte en contacto con Nuestra Comunidad Discorddonde se encuentran los expertos en automatización de bajo código.
Para explorar las posibilidades de democratizar el desarrollo de la IA Constitucional Antrópica, Anthropic se asoció con el Proyecto de Inteligencia Colectiva para llevar a cabo un proceso de aportaciones públicas utilizando la plataforma Polis. El objetivo era implicar a una muestra representativa de ~1.000 adultos estadounidenses en la redacción de una constitución para un sistema de IA. Se invitó a los participantes a proponer y votar principios normativos, contribuyendo a la generación colectiva de un conjunto de directrices para el comportamiento de la IA.
El diseño del proceso de aportación pública implicó varias decisiones críticas:
El proceso de aportaciones públicas produjo un rico tapiz de principios generados por los participantes, que se sintetizaron en una "constitución pública" coherente. Aunque había un solapamiento moderado de aproximadamente el 50% con la constitución interna de Anthropic en cuanto a conceptos y valores fundamentales, la constitución pública presentaba varias distinciones notables:
Estas diferencias subrayan el valor de incorporar diversas perspectivas públicas a la hora de dar forma a los fundamentos éticos de los sistemas de IA.
Para evaluar el impacto de la constitución de origen público, Anthropic entrenó dos variantes de su modelo de IA, Claude : una que utilizaba la constitución pública (modelo Público) y otra que utilizaba su constitución interna original (modelo Estándar). Estos modelos, junto con un modelo de control, fueron sometidos a una rigurosa evaluación en múltiples dimensiones:
Estas evaluaciones aportan valiosas ideas sobre la eficacia de la IA Constitucional para alinear los modelos lingüísticos con los valores y principios determinados públicamente.
El proceso de entrenamiento de un modelo de IA basado en las aportaciones cualitativas del público presentó un conjunto único de retos y requirió una cuidadosa consideración en cada etapa:
Estas lecciones subrayan la naturaleza polifacética de alinear la IA con los valores públicos y la importancia de navegar cuidadosamente por las consideraciones sociales, técnicas y éticas implicadas.
El experimento de IA Constitucional realizado por Anthropic y el Proyecto de Inteligencia Colectiva tiene profundas implicaciones para el futuro del desarrollo y la gobernanza de la IA:
De cara al futuro, los investigadores pretenden desarrollar este trabajo fundacional perfeccionando sus metodologías, diseñando evaluaciones más específicas y explorando la escalabilidad y generalizabilidad del enfoque de la IA Constitucional. Algunas posibles direcciones futuras son:
A medida que el campo de la IA sigue evolucionando a un ritmo sin precedentes, los conocimientos obtenidos de este experimento determinarán sin duda la trayectoria de los futuros esfuerzos de investigación y desarrollo.
El experimento de IA Constitucional Colectiva de Anthropic y el Proyecto de Inteligencia Colectiva es un hito fundamental en la democratización del desarrollo de la IA. Al implicar al público en la creación de una constitución de la IA, esta investigación sienta las bases para un enfoque más inclusivo, transparente y responsable de la gobernanza de la IA. Los resultados ponen de relieve el valor de las diversas perspectivas y los retos de alinear los modelos lingüísticos avanzados con los valores de la sociedad.
La IA constitucional surge como un marco prometedor para garantizar que las potentes tecnologías de IA sirvan al bien común. Al situar los valores humanos en el centro del desarrollo de la IA, podemos aprovechar el potencial de estos sistemas y, al mismo tiempo, mitigar los riesgos y las consecuencias imprevistas.
Sin embargo, el camino hacia una IA verdaderamente democrática y alineada con los valores dista mucho de haber terminado. El experimento sirve como llamamiento a la colaboración continua, la investigación y la participación pública en la configuración del futuro de la IA. Mediante la sabiduría colectiva y la participación de las diversas partes interesadas, podemos trazar el camino hacia un futuro basado en la IA que defienda la transparencia, la responsabilidad y la alineación con los valores humanos.
Las conclusiones de este experimento pionero informarán e inspirarán futuros esfuerzos en este campo. Construyendo sobre los cimientos establecidos por Anthropic y el Proyecto de Inteligencia Colectiva, podemos trabajar hacia un futuro en el que los sistemas de IA sean tecnológicamente avanzados, éticamente fundamentados y socialmente responsables. El camino que tenemos por delante puede ser difícil, pero la recompensa potencial -un mundo en el que la IA y la humanidad trabajen en armonía- bien merece el esfuerzo.
La IA Constitucional se distingue por centrarse en integrar valores y principios de alto nivel directamente en el proceso de entrenamiento del sistema de IA. En lugar de depender únicamente de restricciones o supervisión externas, la IA Constitucional pretende crear sistemas de IA que se alineen intrínsecamente con las normas y expectativas sociales.
Los investigadores colaboraron con la empresa de encuestas PureSpectrum para reclutar una muestra representativa de aproximadamente 1.000 adultos estadounidenses. En el proceso de selección se tuvieron en cuenta factores demográficos como la edad, el sexo, los ingresos y la geografía para garantizar un grupo de participantes diverso e inclusivo. Además, se emplearon criterios de selección para evaluar la familiaridad de los participantes con los conceptos de la IA.
Se eligió la plataforma Polis por su probado historial en facilitar la deliberación productiva en línea y la creación de consenso. Sus características colaborativas, que permiten a los participantes comprometerse con las ideas de los demás y basarse en ellas, se adaptaban bien a los objetivos del experimento de IA Constitucional. Los investigadores también tenían experiencia previa de trabajo con el equipo de Polis, lo que facilitó una aplicación más reflexiva y eficaz del proceso de aportaciones públicas.
Para mantener la integridad del proceso de aportaciones públicas, los investigadores establecieron criterios claros de moderación. Se eliminaron las declaraciones que se consideraron odiosas, sin sentido, duplicadas, irrelevantes, mal formateadas o técnicamente inviables. Este proceso de moderación implicó una combinación de directrices predefinidas y decisiones subjetivas del equipo de investigación.
Aunque había un solapamiento moderado de alrededor del 50% entre la constitución pública y la constitución interna de Anthropic en cuanto a conceptos y valores fundamentales, la constitución pública presentaba algunas distinciones notables. Hacía más hincapié en la objetividad, la imparcialidad y la accesibilidad, y tendía a priorizar la promoción de los comportamientos deseados en lugar de la disuasión de los no deseados. Además, la mayoría de los principios de la constitución pública eran aportaciones originales de los participantes, en lugar de proceder de publicaciones o marcos existentes.
Los modelos entrenados con la constitución pública (modelos Públicos) demostraron un rendimiento comparable al de los entrenados con la constitución Antrópica (modelos Estándar) en cuanto a comprensión del lenguaje y utilidad percibida. Sin embargo, los modelos Públicos mostraron un sesgo reducido en varias dimensiones sociales, medido por el marco BBQ (Bias Benchmark for QA). Este hallazgo sugiere que la incorporación de la opinión pública puede mitigar potencialmente el sesgo y promover la equidad en los sistemas de IA.
El proceso de entrenamiento de un modelo de IA basado en las aportaciones cualitativas del público presentó varios retos. Entre ellos, garantizar una selección representativa de los participantes, moderar eficazmente las aportaciones y equilibrar la representación fiel de la opinión pública con las limitaciones técnicas del entrenamiento constitucional de la IA. Los investigadores también tuvieron que sortear la complejidad de traducir las declaraciones públicas en principios procesables de IA y seleccionar métricas de evaluación adecuadas para valorar la alineación de los modelos resultantes con sus constituciones.
El experimento de IA Constitucional realizado por Anthropic y el Proyecto de Inteligencia Colectiva tiene implicaciones significativas para el futuro de la gobernanza de la IA. Demuestra la viabilidad de alinear modelos lingüísticos avanzados con valores y principios determinados colectivamente, destacando el potencial de incorporar diversas perspectivas al desarrollo de la IA. El experimento también subraya la importancia de la colaboración interdisciplinar entre los desarrolladores de IA, los científicos sociales y el público para dar forma a los fundamentos éticos de la IA. La investigación futura puede basarse en estas ideas explorando la escalabilidad y generalizabilidad del enfoque de la IA Constitucional, desarrollando marcos estandarizados para traducir las aportaciones públicas en principios de IA, e investigando los efectos a largo plazo de los sistemas de IA alineados con los valores en contextos del mundo real.