2023 fue el año de la revolución de la Inteligencia Artificial (IA), pero los beneficios para las organizaciones sin fines de lucro han sido más promesas que realidad.
ChatGPT es la mascota de la nueva era de la IA, considerada la tecnología más innovadora desde la llegada de Internet y el iPhone. Se prevé que sus asombrosas, a veces impresionantes, capacidades de creación de textos transformarán nuestra vida laboral de todos los días:
- Potenciar el proceso de redacción, especialmente para contenidos como llamamientos para recaudar fondos y campañas de correo electrónico;
- Agilizar los flujos de trabajo creativos, desde el desarrollo de conceptos hasta la producción y personalización de resultados de comunicación como publicaciones en redes sociales;
- Asumir pesadas tareas de procesamiento de conocimiento, como resumir informes, producir información valiosa y hacer que los productos de información sean más accesibles.
ChatGPT se une una serie de otras nuevas herramientas de automatización e inteligencia de datos impulsadas por IA que pronto podrían poblar muchos aspectos de nuestras vidas.
En el mundo empresarial, la IA está siendo adoptada a un ritmo frenético. Un estudio reciente de la firma de investigación de mercado Gartner informa que más del 80% de las empresas habrán utilizado IA generativa o aplicaciones habilitadas para IA para 2026 (esto parece una estimación conservadora).
En el sector sin fines de lucro el panorama ha sido diferente. Una encuesta de XLerateDay de octubre de 2023 revela que la mayoría del personal de organizaciones sin fines de lucro se encuentra en las primeras etapas de adopción de la IA y muchos ni siquiera han comenzado.
Dos escenarios comunes parecen estar desarrollándose entre el personal de organizaciones sin fines de lucro deseoso de incorporar la IA en su trabajo:
- Han comenzado a utilizarlo de manera extraoficial y silenciosa debido a preocupaciones sobre el riesgo, el sesgo y la falta de respaldo. (“Lo estoy usando a un lado, en silencio”)
- No lo están utilizando todavía debido a preocupaciones sobre el riesgo, el sesgo y la falta de respaldo. (“No creo que se nos permita usarlo”).
Ninguna de estas es realmente una forma saludable de abordar la adopción de la IA. Y si bien hay ejemplos de organizaciones sin fines de lucro que realizan inversiones significativas en tecnología y flujos de trabajo basados en IA, en realidad no son representativos de la tendencia más amplia hacia la indecisión en materia de IA.
Inteligencia Artificial, indecisión y vacilación. ¿Un enfoque arriesgado?
Un enfoque cauteloso ante las nuevas tecnologías es razonable y, a menudo, inteligente, pero también puede conllevar riesgos. Si un panorama tecnológico cambiante va más allá de los límites de las políticas establecidas, entonces se pueden cometer errores, y en ocasiones se cometerán.
Como informó The Guardian, la oficina de Amnistía Internacional en Noruega fue criticada por utilizar una imagen generada por IA en publicaciones de redes sociales para promover sus informes sobre la brutalidad sistémica utilizada por la policía colombiana para sofocar las protestas en 2021. La decisión de utilizar la imagen priorizó la protección de las identidades y la seguridad de los manifestantes frente a mayores repercusiones, pero al mismo tiempo fue tildado de «noticias falsas» y planteó dudas sobre la credibilidad de la reputación de Amnistía Internacional.
La falta de una política formal de IA, incluido el uso de imágenes generadas por IA, deja la toma de decisiones en el nivel operativo o personal, no estratégico.
Inteligencia Artificial en todas partes
La vacilación y dudas acerca de la IA ha sido un enfoque posible (y razonable) para muchas organizaciones que ya luchan por cumplir sus mandatos con recursos limitados y personal con exceso de trabajo, pero puede que no sea una estrategia viable por mucho más tiempo. Este primer aniversario del lanzamiento de ChatGPT también marca el inicio de la próxima gran ola de expansión de la IA: Inteligencia Artificial en todas partes.
Hasta ahora, las nuevas herramientas de IA como ChatGPT existían principalmente en sus propios ecosistemas, donde podían usarse o evitarse sin impacto en sus sistemas existentes. De cara al 2024, se espera que este panorama cambie con la integración de funciones de inteligencia artificial en nuestros «sistemas de oficina» familiares, como Microsoft Office 365 y Google Workspace, y otras herramientas comunes como Canva, Photoshop, Zoom y Mailchimp.
La IA estará cada vez más integrada en nuestras tareas diarias. Ya sea que nuestro instinto organizacional sea evitar o adoptar, pronto no tendremos otra opción: la IA llegó para quedarse.
IA responsable: un llamado a una mayor participación de las organizaciones sin fines de lucro en la IA
La IA responsable se ha convertido en el sello de los esfuerzos del mundo académico, la industria tecnológica, el gobierno y la sociedad civil para garantizar que el desarrollo de la IA no represente una amenaza para la sociedad y que se prevengan los daños sociales. Las iniciativas responsables de IA están informando nuevas regulaciones y controles que darán forma al desarrollo de la IA futura.
El presidente de los Estados Unidos, Biden, firmó recientemente nuevas regulaciones gubernamentales sobre IA segura y confiable luego de consultas con las principales empresas e investigadores de IA, y el primer ministro del Reino Unido, Rishi Sunak, convocó la primera Cumbre internacional sobre seguridad de la IA en Londres, que reunió a líderes mundiales y gigantes de la tecnología de IA, pero con notablemente pocos participantes de los sectores sin fines de lucro y de la sociedad civil.
¿Podría el enfoque cauteloso hacia la adopción de la IA por parte de las organizaciones sin fines de lucro dejar nuestra voz ausente de importantes foros de toma de decisiones? ¿Vamos a dejar que Google, Microsoft y Facebook decidan qué tipo de IA tendremos en el futuro?
Evaluación de la capacidad de tu ONG para adoptar la IA
La IA aún no es una tecnología imprescindible para la mayoría de las organizaciones y, en general, sería prudente evitar realizar grandes inversiones o compromisos en IA en este momento. Sin embargo, este podría ser el momento oportuno para comenzar a explorar oportunidades de IA a menor escala.
Evaluar la preparación para la IA de tu organización puede ser un primer paso útil. Aquí hay algunas preguntas para ayudar a evaluar la preparación para la IA de tu organización:
• ¿Tiene tu organización una cultura de «aprender mientras se hace» que acepta fracasos o decepciones ocasionales?
• ¿Existe personal interno o asesores externos con mentalidad innovadora que puedan liderar la experimentación con IA?
• ¿Está el liderazgo preparado para respaldar inversiones de tiempo y recursos en proyectos de innovación de IA que pueden no tener un retorno de la inversión claro?
• ¿Puede tu organización proporcionar capacitación y reciclaje de lo aprendido para ayudar al personal a adaptarse a las nuevas herramientas y flujos de trabajo basados en IA?
• ¿Está tu organización preparada para realizar mayores inversiones en sistemas y procesos de gestión del conocimiento? (incluidas bases de datos y CRM, sistema de archivo, imágenes e historiales de comunicaciones).
Colocar «barreras de contención»
En el mundo de los modelos de lenguaje de IA, las barreras de seguridad son controles integrados para garantizar que no produzcan resultados ofensivos o inaceptables. Para los proyectos de innovación de IA, las barreras de seguridad pueden ayudar a orientar la brújula y establecer los límites para mantenerse en un camino seguro.
- Construye alrededor de tus campeones. Es probable que haya personas en tu organización que ya estén usando/explorando ChatGPT y podrían formar el núcleo de un grupo de trabajo — formal o informal, preferiblemente entre equipos — para comenzar a compartir lo que funciona. Reunir algunas voces para hablar puede ayudar a aclarar el equilibrio entre riesgo y oportunidad.
- Se cauteloso, pero no lo pienses demasiado. El panorama de las mejores prácticas en materia de políticas de IA y las líneas rojas éticas está evolucionando rápidamente, así que evita quedarte atrapada o atrapado en una posición fija. Se flexible y apóyate en políticas existentes como guía.
- Los humanos siguen al mando. Esto debería ser evidente, pero siempre asegúrate de que haya supervisión humana de los productos de IA, ya sea contenido de marketing, información de datos o resúmenes de documentos. Los chatbots de IA no son confiables en este momento, pero mejorarán.
- Mantén el foco en tu misión. Están sucediendo muchas cosas en este momento en el espacio de la IA y es fácil distraerse con los últimos anuncios brillantes (“¡Ahora con video 3D!”). Intenta concentrarte en lo que realmente te ayudará a implementar tus programas ahora.
- Prepárate para la decepción y luego para el éxito. La innovación rara vez sigue un camino lineal. Espera llegar al “punto álgido de la desilusión” en el camino y evita poner demasiados huevos en la misma canasta. La IA sigue siendo una tecnología emergente en el lugar de trabajo, así que gestiona tus expectativas y riesgos.
Estas reglas básicas pueden ayudar a crear un ambiente predecible y de apoyo para que los equipos comiencen a ir más allá.
¿Necesitamos una política de IA?
La mayoría de los encuestados de XLerateDay indicaron que no contaban con políticas o marcos vigentes para el uso de la IA. Sólo un puñado indicó que estaban comenzando a trabajar para desarrollar marcos de IA.
Este es todavía un espacio en gran medida subdesarrollado en la gobernanza de las organizaciones sin fines de lucro, y la rápida evolución del panorama de la IA lo hace aún más desafiante. Afortunadamente, están surgiendo esfuerzos en todo el sector para proporcionar recursos y orientación a las organizaciones sobre los marcos de políticas de IA. Un marco de IA líder para organizaciones sin fines de lucro es el de Fundraising.ai, una colaboración independiente que promueve la IA responsable. El marco cubre 10 áreas clave de IA responsable para la recaudación de fondos sin fines de lucro:
- Privacidad y seguridad
- Ética de los datos
- Inclusión
- Responsabilidad
- Transparencia y claridad
- Aprendizaje continuo
- Colaboración
- Cumplimiento legal
- Impacto social
- Sostenibilidad
Este es un buen punto de partida para el documento de política de IA de cualquier organización sin fines de lucro. Sin embargo, redactar una política de uso de IA completa e integral sería un gran impulso para muchas organizaciones, y estaría fuera del alcance de las organizaciones sin fines de lucro más pequeñas.
En cambio, ¿podría haber un consenso acerca de IA?
La innovación en IA puede respaldarse en el corto plazo con una declaración o consenso «mandate» más simple que reconozca la oportunidad que presentan las nuevas tecnologías de IA y brinde garantías para impulsar la innovación.
Un consenso de IA podría ser una simple declaración de un solo párrafo o un documento más complejo. Su objetivo declarado sería capacitar al personal para seguir adelante con el aprendizaje y la experimentación, entendiendo que la organización se siente cómoda con la incertidumbre y los riesgos.
No descuides tu «Human Stack»
«Tech Stack» es un término común utilizado por los técnicos digitales para describir el conjunto de sistemas y software interconectados que administran. El experto en transformación tecnológica y locutor de podcasts Tim Lockie aconseja a las organizaciones sin fines de lucro que se centren más en su “Human Stack”, la red de relaciones interpersonales que realmente hace que las organizaciones funcionen.
A medida que avanzamos hacia el nuevo año de la IA, Tim nos recuerda la importancia crítica del Human Stack y la comprensión de que el cambio tecnológico en el lugar de trabajo es una experiencia altamente disruptiva. Generar confianza y comprensión entre los miembros del equipo, comunicar abiertamente los desafíos y contratiempos y gestionar las expectativas durante todo el proceso de adopción son tan fundamentales para el éxito como la tecnología misma.
MUESTRA DE PLANTILLA DE CONSENSO O DECLARACIÓN DE IA («AI Mandate»)
Declaración de misión: Nuestra organización sin fines de lucro se dedica a aprovechar el poder de la Inteligencia Artificial (IA) para lograr un impacto social y ambiental positivo, al tiempo que prioriza la evaluación y mitigación cuidadosas de los riesgos. Buscaremos utilizar tecnologías de IA para promover nuestra misión, promover prácticas éticas de IA y garantizar que los beneficios de la IA sean accesibles para todos, al mismo tiempo que prevenimos activamente posibles consecuencias negativas.
Valores fundamentales:
- Innovación: exploraremos y promoveremos continuamente soluciones innovadoras de IA, mientras evaluamos rigurosamente los riesgos y desafíos potenciales y buscamos activamente mitigarlos.
- IA ética y responsable: Nos adheriremos a los más altos estándares de desarrollo e implementación éticos de IA, enfatizando la identificación proactiva y la mitigación de prejuicios, discriminación y daños potenciales.
- Colaboración: enfatizamos la necesidad de colaborar y compartir entre nuestros equipos de trabajo, no solo para amplificar nuestro impacto sino también para evaluar y gestionar colectivamente los riesgos asociados con los proyectos de IA.
- Transparencia: Mantendremos la transparencia en todas nuestras actividades, incluida la evaluación y gestión de riesgos, desde la selección de proyectos y la asignación de fondos hasta el desarrollo de IA y el uso de datos. Seremos abiertos y responsables ante nuestras partes interesadas.
Con esta declaración nuestra organización sin fines de lucro se compromete a investigar el potencial de la IA y a esforzarse por promover nuestra misión mediante el uso responsable e impactante de la inteligencia artificial, al mismo tiempo que adopta un enfoque proactivo en la evaluación y mitigación de riesgos para prevenir posibles consecuencias negativas.
- Autor: George Irish
- Ir a la nota original