La gobernanza responsable de la IA y los desafíos de la IA de propósito general
ey
Sesión 262
Cómo aplicar la gestión de riesgos de IA cuando el contexto de la aplicación está mínimamente definido
Sobre la base de nuestro panel del taller de 2022 que se centró en el aseguramiento y la evaluación de la conformidad de productos y servicios digitales emergentes, como la IA, continuaremos con el tema de discusión sobre consideraciones prácticas para regulaciones, estándares y pautas de gobierno corporativo, pero esta vez nos centraremos en los desafíos específicos que plantean los grandes modelos generativos de IA (por ejemplo, Chat GPT, DALL-E 2, Synthesia, Stable Diffusion). Específicamente, discutiremos cómo encajar estos sistemas dentro de los marcos de gestión de riesgos de IA a la luz de la falta de especificidad del caso de uso en el modelo central junto con la falta de control sobre ese modelo por parte de quienes especifican el caso de uso. A la luz de estos desafíos, preguntaremos cómo se pueden adaptar los esfuerzos existentes hacia la gobernanza responsable de la IA para incorporar las demandas de los grandes modelos generativos de IA.
El Dr. Ansgar Koene es líder global de ética y regulación de la IA en EY (Ernst & Young), donde dirige el equipo de políticas públicas relacionadas con la IA y contribuye al trabajo sobre la gobernanza de la IA y el marco de IA de confianza de EY. Como parte de este trabajo, representa a EY en el Grupo de Trabajo de la OCDE sobre IA y Gobernanza y Negocios en el Comité de Política Económica Digital de la OCDE (BIAC CDEP).
Ansgar presidió el grupo de trabajo IEEE P7003 Standard for Algorithmic Bias Considerations y es co-coordinador del trabajo del comité CEN-CENELEC JTC21 "AI" sobre evaluación de conformidad de IA. Es fideicomisario de la fundación 5Rights para los derechos de los jóvenes en línea y asesora sobre inteligencia artificial y ética de datos para la ONG panafricana AfroLeadership y la empresa emergente de movilidad inteligente Hayden AI .
Ansgar tiene antecedentes de investigación multidisciplinarios, habiendo trabajado y publicado sobre temas que van desde la política y la gobernanza de los sistemas algorítmicos (IA), la privacidad de los datos, la ética de la IA, los estándares de la IA, la robótica bioinspirada, la IA y la neurociencia computacional hasta el comportamiento humano experimental. /Estudios de percepción. Tiene una Maestría en Ingeniería Eléctrica y un Doctorado en Neurociencia Computacional.
El Dr. Ahmed Imran es investigador de Sistemas de Información en la Universidad de Canberra y dirige el grupo de investigación interdisciplinario de Desigualdad digital y cambio social (Rc-disc). Los intereses de investigación de Ahmed incluyen el uso estratégico de TI, gobierno electrónico, ICT4D y el impacto sociocultural de las TIC y la transformación organizacional impactada por las TIC. El Dr. Imran ha acumulado más de una década de experiencia académica en dos de las principales universidades de Australia (ANU y UNSW) antes de mudarse a la UC y ha publicado en revistas de primer nivel. Su vasta experiencia como gerente de TI, así como su trabajo en países en desarrollo, se volvieron invaluables para la investigación, y para comprender y brindar una visión rica del contexto sociocultural a través de múltiples lentes, lo que resultó en oportunidades de investigación interdisciplinaria. La investigación del Dr. Imran ha demostrado traer aplicaciones del mundo real a la mesa, algo que consolidó su importancia y relevancia a los ojos de la comunidad investigadora.
- C5. Crear confianza y seguridad en la utilización de las TIC
- C7. Aplicaciones de las TIC: ventajas en todos los aspectos de la vida — Negocios electrónicos
- C10. Dimensiones éticas de la sociedad de la información
- Objetivo 8: Promover el crecimiento económico sostenido, inclusivo y sostenible, el empleo pleno y productivo y el trabajo decente para todos
- Objetivo 11: Conseguir que las ciudades y los asentamientos humanos sean inclusivos, seguros, resilientes y sostenibles
- Objetivo 16: Promover sociedades pacíficas e inclusivas para el desarrollo sostenible, facilitar el acceso a la justicia para todos y crear instituciones eficaces, responsables e inclusivas a todos los niveles
This session builds on the outcomes of out panel last year on "Assurance and conformity assessment of digital products and services" (session 410) and our report on AI Risk Assessment methodologies.