La inteligencia artificial plantea muchos riesgos éticos para las empresas: puede promover el sesgo, provocar invasiones de la privacidad y, en el caso de los coches autónomos, incluso provocar accidentes mortales. Debido a que la IA está diseñada para operar a escala, cuando se produce un problema, el impacto es enorme. Las fuentes de los problemas de la IA son muchas.
En agosto del 2022 la Harvard Business Review publicó un extenso artículo de Reid Backman dedicado al comité de ética de la IA. En el artículo comentan que hay muchos riesgos éticos bien documentados y muy publicitados asociados con la IA; los prejuicios involuntarios y las invasiones de la privacidad son solo dos de los tipos más notables. En muchos casos, los riesgos son específicos de usos particulares, como la posibilidad de que los coches autónomos atropellen a los peatones o que los canales de noticias de las redes sociales generados por la IA generen desconfianza en las instituciones públicas. En algunos casos son importantes amenazas para la reputación, la regulación, las finanzas y la ley. Debido a que la IA está diseñada para operar a escala, cuando ocurre un problema, afecta a todas las personas con las que interactúa la tecnología, por ejemplo, a todos los que responden a una oferta de trabajo o solicitan una hipoteca en un banco. Si las empresas no abordan cuidadosamente las cuestiones éticas a la hora de planificar y ejecutar proyectos de IA, pueden perder mucho tiempo y dinero desarrollando software que, en última instancia, es demasiado arriesgado de usar o vender, como muchos ya han aprendido.
La estrategia de IA de su organización debe tener en cuenta varias preguntas: ¿Cómo podría la IA que diseñamos, adquirimos e implementamos plantear riesgos éticos que no se pueden evitar? ¿Cómo los identificamos y mitigamos de forma sistemática y exhaustiva? Si los ignoramos, ¿cuánto tiempo y trabajo nos llevaría responder a una investigación regulatoria? ¿Qué importe podríamos pagar si nos declaran culpables, y mucho menos negligentes, de infringir reglamentos o leyes? ¿Cuánto tendríamos que gastar para restablecer la confianza del consumidor y del público, siempre que ese dinero pudiera resolver el problema?
Las respuestas a esas preguntas subrayarán cuánto necesita su organización un programa de riesgo ético de la IA. Debe empezar por el nivel ejecutivo y permear en las filas de su empresa y, en última instancia, en la propia tecnología.
La función y la jurisdicción de un Comité de Ética de la IA
Según Reid Blackman, un comité de ética de la IA puede ser una nueva entidad de su organización o un organismo existente al que asigne responsabilidad. Y si su organización es grande, puede que necesite más de un comité.
A un alto nivel, la función del comité es sencilla: identificar de forma sistemática y exhaustiva y ayudar a mitigar los riesgos éticos de los productos de IA que se desarrollan internamente o se adquieren a terceros proveedores. Cuando los equipos de productos y aprovisionamiento presenten una propuesta de solución de IA, el comité debe confirmar que la solución no plantea riesgos éticos graves; recomendar cambios en la misma y, una vez adoptados, revisarla por segunda vez o desaconsejar el desarrollo o la adquisición total de la solución.
Una pregunta importante que debe examinar es cuánta autoridad tendrá el comité. Si no es necesario consultarlo, sino que simplemente se recomienda, solo un subconjunto de sus equipos (y probablemente uno pequeño) lo hará. Y solo un subconjunto de ese subconjunto incluirá las recomendaciones del comité. Esto es arriesgado. Si ser éticamente sólido está en la cima de la pirámide de valores de su empresa, es una buena idea conceder al comité el poder de vetar propuestas. Eso garantizará que tenga un verdadero impacto en la empresa.
Además, puede reforzar el trabajo del comité reconociendo regularmente a los empleados, tanto de manera informal (por ejemplo, con saludos en las reuniones) como formalmente (quizás mediante ascensos) para defender y reforzar sinceramente los estándares éticos de la IA.
Cuando a un comité se le da un poder real, se crea una gran confianza entre los empleados, los clientes, los consumidores y otras partes interesadas de la empresa, como el gobierno, especialmente si la organización es transparente en cuanto a las operaciones del comité, aunque no en cuanto a sus decisiones exactas. Sin embargo, las empresas que no están preparadas para conceder ese tipo de autoridad a un comité interno, pero que se toman en serio la mitigación ética del riesgo de la IA, pueden encontrar un término medio. Pueden permitir que un alto ejecutivo, muy probablemente alguien de la alta dirección, invalide el comité, lo que permitiría a sus organizaciones asumir riesgos éticos que consideren que valen la pena.
¿Quién tiene que estar en su comité de ética de la IA y por qué?
- Expertos en ética: podrían ser personas con doctorados en filosofía que se especializan en ética, digamos, o personas con maestrías en ética de la justicia penal (o cualquiera que sea su industria). Sin embargo, no están ahí para tomar decisiones sobre la ética de la empresa. Están ahí porque tienen la formación, los conocimientos y la experiencia necesarios para comprender y detectar una amplia gama de riesgos éticos, están familiarizados con los conceptos y distinciones que ayudan en las deliberaciones éticas claras y son hábiles para ayudar a los grupos a evaluar objetivamente las cuestiones éticas. Esto no quiere decir que necesite especialistas en ética a tiempo completo, sino que puede traerlos y consultarlos cuando sea apropiado.
- Abogados: dado que las herramientas técnicas no son suficientes para resolver el problema del sesgo, lo que está legalmente permitido a menudo se convierte en una consideración importante. Los abogados, por supuesto, están mejor equipados que nadie para averiguar si el uso de una métrica concreta en aras de la equidad que tiene diferentes efectos en diferentes subgrupos podría considerarse discriminación según la ley. Pero los abogados también pueden ayudar a determinar si el uso de herramientas técnicas para evaluar la equidad es legal. Puede que esté prohibido por la ley contra la discriminación, que no permite que los datos sobre variables asociadas a las clases protegidas se tengan en cuenta en una amplia gama de decisiones.
- Estrategas empresariales: Los rendimientos financieros esperados de la IA difieren de los de uso a uso, y también los riesgos para la empresa (se han hecho promesas a los clientes y se han firmado contratos). La magnitud y los tipos de riesgos éticos también varían, junto con las estrategias para abordarlos y las inversiones de tiempo y dinero que requerirán esas estrategias. Entonces, qué tácticas de mitigación adoptar, cuándo tomarlas, quién debe ejecutarlas, etc., es una consideración empresarial. Y aunque tiendo a dar prioridad a la identificación y mitigación del riesgo ético, debo admitir que, en algunos casos, ese riesgo es lo suficientemente pequeño y otros riesgos empresariales son lo suficientemente grandes como para que sea razonable adoptar un enfoque comedido para gestionarlo. Por todo esto, tener a alguien con un firme control de las necesidades de la empresa en el comité es en sí mismo una necesidad empresarial.
- Tecnólogos: aunque he explicado lo que los tecnólogos no pueden hacer, también debo reconocer lo que pueden hacer: ayudar a los demás a comprender los fundamentos técnicos de los modelos de IA, la probabilidad de éxito de varias estrategias de mitigación de riesgos y si algunas de esas estrategias son factibles. Por ejemplo, el uso de la tecnología para marcar posibles sesgos presupone que su organización tiene y puede utilizar datos demográficos para determinar cómo la producción de una modelo distribuye bienes o servicios entre varias subpoblaciones. Pero si carece de esos datos demográficos o, como ocurre en los servicios financieros, está legalmente prohibido recopilarlos, se verá obstaculizado. Tendrá que recurrir a otras estrategias, como la creación de datos sintéticos para entrenar su IA. Y si esas estrategias son tecnológicamente posibles y, de ser así, lo pesadas que son, es algo que solo un tecnólogo puede decirle. Esa información debe figurar en las deliberaciones del comité.
- Exploradores de prejuicios y expertos en la materia: las herramientas técnicas de mitigación de sesgos miden la producción de los modelos de IA, una vez que se han elegido los conjuntos de datos y se han entrenado los modelos. Si detectan un problema que no se puede resolver con unos ajustes relativamente mínimos, tendrá que volver a la mesa de dibujo. Comenzar la mitigación en el primer paso del desarrollo del producto, durante la recopilación de datos y antes de la formación de modelos, sería mucho más eficiente y aumentaría considerablemente sus posibilidades de éxito.
Por eso se necesitan personas en su comité que puedan detectar los sesgos al principio del proceso. Los expertos en la materia suelen ser buenos en esto. Si su IA se desplegará en la India, por ejemplo, un experto en la sociedad india debería intervenir en su desarrollo. Esa persona puede entender que es probable que la forma en que se recopilaron los datos haya sub muestreado a algún subconjunto de la población, o que alcanzar el objetivo establecido para la IA puede exacerbar una desigualdad existente en el país.
Para finalizar, un comité de ética de la inteligencia artificial sólido es una herramienta esencial para identificar y mitigar los riesgos de una tecnología potente que promete grandes oportunidades. No prestar mucha atención a la forma en que crea ese comité y a la forma en que se incorpora a su organización podría ser devastador para la reputación de su empresa y, en última instancia, sus resultados finales.