gestión de la inteligencia artificial en un contexto de ...4.1.3. fiabilidad la fiabilidad en el...

29
WP-1211 Febrero de 2019 Copyright © 2019 IESE. Última edición: 5/6/19 Gestión de la inteligencia artificial en un contexto de densidad digital 1 JAVIER ZAMORA Profesor titular de Sistemas de Información, IESE Resumen La IA es una nueva tecnología que permite a las organizaciones aprovechar sus datos para crear nuevas propuestas de valor. Por otra parte, la incorporación de la IA en la organización plantea nuevos desafíos, puesto que los datos, tanto de entrada como de salida de los modelos de IA, necesitan una gobernanza específica. Este capítulo describe las directrices globales que debe seguir la dirección general para conseguir una buena gobernanza de la IA en un contexto de densidad digital. Palabras clave: inteligencia artificial, densidad digital, gobernanza, propuesta de valor, modelo organizativo, modelo de negocio 1 Este documento de trabajo es una versión anterior de un capítulo del libro The Future of Management in an Artificial Intelligence World, J. Canals y F. Heukamp, ed., 2019, Palgrave Macmillawn, Houndmills, Basingtoke, Hampshire.

Upload: others

Post on 21-Aug-2020

0 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

WP-1211 Febrero de 2019

Copyright © 2019 IESE. Última edición: 5/6/19

Gestión de la inteligencia artificial en un contexto de densidad digital1

JAVIER ZAMORA Profesor titular de Sistemas de Información, IESE

Resumen

La IA es una nueva tecnología que permite a las organizaciones aprovechar sus datos para crear nuevas propuestas de valor. Por otra parte, la incorporación de la IA en la organización plantea nuevos desafíos, puesto que los datos, tanto de entrada como de salida de los modelos de IA, necesitan una gobernanza específica. Este capítulo describe las directrices globales que debe seguir la dirección general para conseguir una buena gobernanza de la IA en un contexto de densidad digital.

Palabras clave: inteligencia artificial, densidad digital, gobernanza, propuesta de valor, modelo organizativo, modelo de negocio

1 Este documento de trabajo es una versión anterior de un capítulo del libro The Future of Management in an Artificial Intelligence World, J. Canals y F. Heukamp, ed., 2019, Palgrave Macmillawn, Houndmills, Basingtoke, Hampshire.

Page 2: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

2 IESE Business School-University of Navarra

Índice

1. Introducción ........................................................................................................................ 3

2. La IA dentro del contexto de la densidad digital .................................................................... 5

3. Nuevas propuestas de valor utilizando la IA .......................................................................... 8

3.1. Automatización utilizando IA ............................................................................................... 10

3.2. Anticipación utilizando IA ..................................................................................................... 11

3.3. Coordinación utilizando IA ................................................................................................... 13

3.4. Personalización utilizando IA ............................................................................................... 14

4. Implicaciones de la IA en las organizaciones ....................................................................... 15

4.1. Retos al presentar la IA ........................................................................................................ 15

4.1.1. Privacidad ............................................................................................................................... 15

4.1.2. Integración ............................................................................................................................. 16

4.1.3. Fiabilidad ................................................................................................................................ 16

4.1.4. Seguridad ............................................................................................................................... 17

4.2. Nuevas capacidades al adoptar la IA ................................................................................... 18

4.3. Algunos principios de gobernanza con la IA ......................................................................... 19

4.3.1. Equidad .................................................................................................................................. 20

4.3.2. Responsabilidad ..................................................................................................................... 21

4.3.3. Transparencia ......................................................................................................................... 22

4.3.4. Ética........................................................................................................................................ 23

4.3.5. Sabiduría práctica ................................................................................................................... 24

5. Conclusiones ...................................................................................................................... 25

Page 3: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

IESE Business School-University of Navarra 3

1. Introducción

La incorporación de la inteligencia artificial (lA) en una organización no se debe considerar una nueva tecnología de forma aislada, sino asociada a otras nuevas tecnologías, como las redes sociales, los móviles, la computación en la nube, los macrodatos y el Internet de las cosas (IoT, por sus siglas en inglés), entre otras. Juntas, constituyen meras manifestaciones en un entorno con una densidad digital en crecimiento exponencial (Zamora, 2017), que definí como el porcentaje de datos conectados que está disponible por unidad de actividad —una unidad de actividad es un país, una región, una industria, una organización o una unidad de negocio. En otras palabras, la densidad digital es un indicador de cuántos de los procesos que se realizan en una determinada unidad de actividad se basan en datos a los que se puede acceder de manera remota (es decir, datos conectados). En este sentido, los datos conectados se convierten en una abstracción de la entidad física en sí misma, que se puede observar, supervisar y/o controlar de forma remota.

Este aumento de la densidad digital se utiliza a menudo para calcular el potencial de una organización para generar nuevos modelos de negocios. A medida que la densidad digital se intensifica, las líneas una vez definidas entre el mundo físico y el digital comienzan a desaparecer, forjando un nuevo entorno combinado, en un proceso conocido como transformación digital. Por lo tanto, no debemos considerar la IA una simple infraestructura tecnológica. La IA tiene un impacto sobre el modelo de negocio (Casadesús-Masanell y Ricart, 2011) al permitir nuevas propuestas de valor y, por otro lado, un impacto en la organización en materia de gobernanza, capacidades y cambio cultural. La Tabla 1 resume las dimensiones empresariales y organizativas que un director debe tener en cuenta al presentar la tecnología de IA en una organización.

Tabla 1

Modelo empresarial y dimensiones del modelo organizativo de IA

Fuente: Elaboración propia.

Automatización

Propuestas de valorbasadas en la IA

Anticipación

Coordinación

Personalización

Privacidad

Retos de la IAIntegración

Fiabilidad

Seguridad

Equidad

Principios de la gobernanza

de la IA

Responsabilidad

Transparencia

Ética

Sabiduría práctica

Page 4: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

4 IESE Business School-University of Navarra

El alcance y el calendario del impacto de la IA varían de una industria a otra. Por este motivo, utilizaremos ejemplos de diferentes sectores (por ejemplo, sanitario, financiero, sector público minorista, etc.) para destacar los diferentes grados de complejidad y riesgo que implican el uso de nuevas propuestas de valor basadas en la IA. Primero revisaremos por qué la IA es una realidad hoy en aquellos sectores, identificando nuevas fuentes de datos (a gran escala o macrodatos). En segundo lugar, contestaremos qué clase de nuevas propuestas de valor basadas en IA son posibles en diferentes sectores. Consideramos los ejemplos de IA en el contexto de cuatro tipos de interacciones; concretamente, automatización, anticipación, coordinación y/o personalización de interacciones. Finalmente, abordaremos los nuevos retos en términos de privacidad, interacción, fiabilidad y seguridad que la puesta en práctica de la IA (la manera) representa para cualquier organización.

Como los datos conectados —tanto las entradas como las salidas de los algoritmos de IA— se convierten en uno de los principales activos de las organizaciones, necesitamos entender la mejor forma de incorporar esta tecnología en los modelos de negocios de las empresas. La mayoría de las veces, hacer uso de cualquier nueva tecnología en una organización requiere un periodo de transición durante el cual coexisten las dos modalidades: una modalidad de aprendizaje a través de pruebas, y una modalidad de ganancia, mediante la ejecución del modelo de negocio actual. Durante este periodo de transición, la organización debe identificar las nuevas capacidades operativas requeridas para gestionar con éxito la tecnología de IA. Además, la dirección general (Andreu y Ricart, 2014) debe ser consciente de los nuevos desafíos de gestión a los que se enfrentarán a medida que la IA se vuelva más presente en sus organizaciones.

En primer lugar, las organizaciones se enfrentarán a cuestiones importantes relacionadas con la equidad de los modelos de IA, según el sesgo introducido por el conjunto de datos de entrenamiento. En segundo lugar, dado que la IA se integrará en el proceso de toma de decisiones, se deberán abordar los asuntos relacionados con la responsabilidad en el caso de resultados no deseados. En tercer lugar, los directores generales confiarán en aquellos sistemas de IA solo si son transparentes para ellos, en lugar de convertirse simplemente en una caja negra; es decir, sistemas que se explican respecto a cómo llegan a ciertas recomendaciones. En cuarto lugar, la IA debe tener en cuenta cualquier decisión que se tome sobre cuestiones éticas basadas en valores (función de utilidad) cuando se diseñan esos algoritmos. Por último, aunque no menos importante, el uso de la IA debe también guiarse por el buen criterio de la dirección general, quien debe actuar sobre la base de lo que es correcto para todos los interesados, a partir de la sabiduría práctica que está alineada con el cometido de la organización.

Este capítulo comienza con la presentación de la IA en el contexto de la densidad digital, que incluye tres dimensiones diferentes: el modelo tecnológico, el modelo de negocio y el modelo organizativo. Después, utilizando ejemplos de varias industrias, ilustramos el nuevo tipo de propuestas de valor empleando la IA que es viable hoy en día. Estas nuevas propuestas de valor son el resultado de combinar la tecnología de IA en uno o más de cuatro tipos de interacciones: automatización, anticipación, coordinación y personalización. A continuación, abordamos los retos de IA en las organizaciones en términos de privacidad, integración, fiabilidad y seguridad que plantean para la organización estas nuevas propuestas de valor basadas en la IA. Tras estos retos, identificamos las nuevas capacidades que necesitamos para poner en práctica con éxito la IA en la empresa. A partir de entonces, identificamos los principios de la gobernanza de la IA en términos de equidad, responsabilidad, transparencia, ética y sabiduría práctica que un director general debe conocer, para poder actuar en consecuencia, con respecto a las repercusiones externas de la IA, más allá de su impacto en sus modelos de negocio. Por último, la dirección general debe gestionar la IA de manera global en la organización, no solo aprovechando los beneficios de la IA en el diseño de nuevas propuestas de valor, sino también

Page 5: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

IESE Business School-University of Navarra 5

entendiendo las limitaciones actuales de la IA para abordar nuevos retos y minimizar las repercusiones externas negativas del uso de la IA con clientes, con empleados y con la sociedad en general.

2. La IA dentro del contexto de la densidad digital

Aunque los orígenes de la IA (Zamora y Herrera, 2018) como una nueva disciplina se remontan al año 1956, apenas ha ganado impulso recientemente y muchas industrias han comenzado a considerar la IA una tecnología prometedora. El renacimiento de la IA como una tecnología viable sucedió principalmente debido a la confluencia de tres factores. El primer factor es el aumento de la potencia computacional y la disminución de su coste como una consecuencia directa de la Ley de Moore. El segundo factor es la disponibilidad de grandes conjuntos de datos (macrodatos) derivados de un mundo digitalizado hiperconectado. Y el tercer factor es el avance de la adaptabilidad y el desarrollo de los algoritmos de IA.

En el contexto de la digitalización de las organizaciones, las personas e incluso los objetos, no debemos considerar la IA una tecnología aislada, sino junto con otras tecnologías como las redes sociales, la computación en la nube, los móviles, los macrodatos, el Internet de las cosas y la cadena de bloques o blockchain, como manifestación de un mundo con una densidad digital en aumento exponencial (Zamora, 2017). En otras palabras, a medida que se conectan muchos más procesos de organizaciones, personas y objetos, esto se traduce en una brecha de la densidad digital y comienzan a difuminarse las fronteras entre el mundo físico y el digital. Este nuevo escenario, donde no se pueden distinguir el mundo físico y el digital, es la fuerza impulsora subyacente de la transformación digital que muchas organizaciones han experimentado en los últimos años. Por lo tanto, la IA es también una tecnología que aprovecha este escenario de alta densidad digital al convertir los datos conectados en nuevas fuentes de generación de valor y registro para las organizaciones.

Andrew Ng, profesor adjunto de la Universidad de Stanford y experto mundial en IA, considera que la IA es una tecnología de uso general, de la misma forma que lo ha sido la electricidad. En otras palabras, la IA tiene el potencial de redefinir a muchas industrias del mismo modo que la electricidad redefinió a la industria al comienzo del siglo XX, o más recientemente, Internet cambió la manera en la que compiten muchas empresas. Sin embargo, del mismo modo que una empresa no se convierte en una empresa de Internet solo creando una página web, una empresa no se convierte en una organización de IA por la simple compra o presentación de unos sistemas de IA en su portafolio (TI) de tecnología de Internet. En este sentido, la IA, así como otras nuevas tecnologías involucradas en el proceso de transformación digital, debe considerarse de manera global al tener en cuenta su impacto sobre diferentes dimensiones (véase Figura 1):

Plataforma tecnológica

Modelo de negocio

Modelo organizativo

En el contexto específico de la IA, la plataforma tecnológica se refiere a la infraestructura TI, que principalmente se compone de una recopilación de algoritmos (Zamora y Herrera, 2018) que hoy —la mayoría de las veces— son algoritmos de aprendizaje automático que realizan principalmente funciones de predicción y/o clasificación. Sin embargo, la ventaja competitiva no reside en poseer esos algoritmos, ya que la mayoría de ellos están disponibles para muchas

Page 6: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

6 IESE Business School-University of Navarra

organizaciones, sino en tener los datos para entrenar y probar algoritmos para construir y validar un modelo que se usará más adelante con nuevos datos. Por consiguiente, en un mundo de alta densidad digital, los datos (Zamora, Tatarinov y Sieber, 2018) se convierten en uno de los activos fundamentales de la organización. Por lo tanto, la infraestructura TI también comprende todos los sistemas de información necesarios para tener una gestión eficiente de los datos (es decir, el registro, la conservación, la búsqueda y la protección).

Page 7: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

IESE Business School-University of Navarra 7

Figura 1

Contexto para la transformación digital (lado izquierdo) y su aplicación en IA (lado derecho)

Fuente: Elaboración propia.

ENTORNO

MERCADO

Modelo de negocio

Modelo organizativo

Plataforma tecnológica

BRECHA DE LA DENSIDAD DIGITAL

REGULACIÓN Y CUMPLIMIENTO

Propuesta de valor

Automatización Anticipación PersonalizaciónCoordinación

Organización

Retos de la IA Gobernanza de la IA Capacidades de la IA

Infraestructura de TI

Algoritmos de IA Gestión de los datos

IA

Page 8: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

8 IESE Business School-University of Navarra

La siguiente dimensión es el modelo de negocio, que se refiere a la lógica y a las dinámicas subyacentes (Ricart, 2012) de una empresa para crear y registrar valor. Un componente integral del modelo de negocio es la propuesta de valor (Osterwalder y Pigneur, 2010), o los productos y servicios que crean valor para un cliente determinado. En este sentido, las nuevas propuestas se habilitan mediante el uso de la tecnología de IA en cuatro tipos de interacción:

Automatización, o el uso de la IA para automatizar los procesos ya existentes mediante la eliminación de operaciones manuales para conseguir reducciones de coste.

Anticipación, o el uso de la IA para predicción o recomendación.

Coordinación, o el uso de la IA para coordinar de una manera inteligente una gran cantidad de agentes que participan en la creación de la propuesta de valor.

Personalización, o el uso de la IA para personalizar las propuestas de valor para un cliente determinado.

La IA procesa los datos para construir la nueva propuesta de valor (Zamora, 2017) utilizando una combinación de alguno de esos cuatro tipos de interacción.

La dimensión del modelo organizativo se refiere a la forma en la que la IA tiene un impacto dentro de la organización (Káganer, Zamora y Sieber, 2013). Esto incluye varios aspectos. Por otra parte, la forma en la que las organizaciones comienzan a utilizar la IA en pruebas con el propósito de aprender a explorar el potencial de la tecnología, y posteriormente extender las pruebas exitosas a la producción, como un componente integral de la ejecución de un modelo de negocio determinado. Por otro lado, la IA exige nuevas capacidades, tanto a nivel operativo (por ejemplo, los datos científicos) como a nivel directivo para abordar los nuevos retos en relación con la privacidad, la integración, la fiabilidad y la seguridad. Además, se necesitan grandes capacidades de gestión para la gobernanza (Andreu y Ricart, 2014) de la IA dentro de una organización, dado un marco regulador y de cumplimiento donde la empresa desarrolla su actividad. En concreto, esta gobernanza debe abordar los asuntos relacionados con la equidad, la responsabilidad, la transparencia, la ética y la sabiduría práctica cuando una organización ofrece una nueva propuesta de valor basada en la IA.

Este capítulo se centrará en el modelo de negocio y en las dimensiones del modelo organizativo.

3. Nuevas propuestas de valor utilizando la IA

En la Figura 2 mostramos la arquitectura de la densidad digital que interconecta el mundo físico con el mundo digital, junto con la lógica de negocio. La capa inferior representa el mundo físico, integrado por las organizaciones, las personas y los objetos. Sobre la capa física tenemos la capa de conexión, que relaciona el mundo físico con el mundo digital. Tradicionalmente, las organizaciones se han conectado al mundo digital mediante la digitalización de sus procesos (por ejemplo, la planificación de los recursos empresariales (ERP, por sus siglas en inglés) y la gestión de relaciones con clientes (CRM, por sus siglas en inglés, etc.), y las personas están conectadas al mundo digital a través de interfaces hombre-máquina (por ejemplo, web, aplicación, voz, etc.), mientras que los objetos se conectan a través de sensores para leer su estado (por ejemplo, posición, temperatura, velocidad, etc.) o a través de impulsores para cambiar su estado (por ejemplo, encenderlo, acelerarlo, etc.). En la parte superior de esta capa de conexión, se encuentran los datos conectados que representan el mundo físico (Zamora, 2017).

Page 9: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

IESE Business School-University of Navarra 9

Figura 2

Arquitectura de densidad digital

Fuente: Elaboración propia.

A medida que aumenta la densidad digital, la capa de datos representa mejor el mundo físico. En este escenario, los datos se están convirtiendo en el activo principal de la organización, ya que los datos se han convertido en materia prima para crear nuevas propuestas de valor y, a su vez, para construir nuevos modelos de negocio. En un sentido metafórico, si los datos se consideran el nuevo petróleo de la economía, la IA se convierte en una de las máquinas que transforma estos datos en nuevas propuestas de valor.

Un ejemplo de incremento de la densidad digital en el sector de salud es el Biobank Data del Reino Unido, donde se han recopilado los datos de más de 500.000 personas durante los últimos treinta años, incluido su historial médico, imágenes y datos genéticos —a través del Archivo Europeo del Genoma-Fenoma (EGA, por sus siglas en inglés)— y la actividad física y médica a través de vigilancia móvil. Los investigadores del campo de la salud, mediante tecnología de IA, están trabajando con este repositorio de datos para mejorar la prevención, el diagnóstico y el tratamiento de una amplia gama de enfermedades graves y potencialmente mortales. Su trabajo se plasma en el despliegue de sistemas inteligentes en la asistencia médica, donde los médicos pueden ya aplicar los datos del cliente, incluido lo que comen, cuánto ejercicio realizan y qué hay en su genética; cotejar ese material frente a la gran cantidad de estudios para realizar un diagnóstico; acceder a las últimas investigaciones sobre productos farmacéuticos y otros tratamientos; consultar algoritmos de aprendizaje automático que examinan alternativas de actuación, y crear recomendaciones de tratamiento personalizadas para el paciente.

MODELO DE NEGOCIONUEVAS PROPUESTAS DE VALOR

LÓGICA DE NEGOCIO

AUTOMATIZACIÓN ANTICIPACIÓN COORDINACIÓN PERSONALIZACIÓN

DATOS MUNDO DIGITAL

CAPA DE CONEXIÓN

MUNDO FÍSICOOBJETOSHardware/Dispositivos

PERSONASORGANIZACIONES

SENSORES IMPULSORESINTERFACES

HOMBRE-MÁQUINA

PROCESOSDE

DIGITALIZACIÓN

Page 10: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

10 IESE Business School-University of Navarra

Como mencionamos anteriormente, se pueden usar los datos conectados derivados de un entorno de alta densidad digital para crear nuevas propuestas de valor como una combinación de uno o más de cuatro tipos de interacción: automatización, anticipación, coordinación y personalización. Aunque la mayoría de las nuevas propuestas de valor son el resultado de la combinación de más de un tipo de interacción, los siguientes ejemplos se clasifican según el tipo de interacción que es más predominante en la propuesta de valor.

3.1. Automatización utilizando IA

Tradicionalmente, las organizaciones se han conectado al mundo digital mediante la digitalización de sus diferentes procesos. La mayoría de estos procesos podrían automatizarse, ya que podrían describirse mediante el tratamiento de flujos de trabajo de casos limitados y bien definidos, que podrían ponerse en marcha en aplicaciones de software empresarial (por ejemplo, ERP, CRM, etc.). La reducción drástica del coste computacional debido a la Ley de Moore ha sido la causa de la difusión de este tipo de software, que permite la digitalización masiva de las empresas.

Sin embargo, las actividades de algunas organizaciones necesitan una automatización más sofisticada, porque implican un número casi infinito de escenarios (excepciones) de los que el software tradicional no puede ocuparse. En estos casos se puede utilizar la automatización robótica de procesos (RPA, por sus siglas en inglés) o los trabajadores de IA, donde los sistemas de IA pueden mirar/observar la actividad de un trabajador y aprender de sus acciones, aprovechando la gran capacidad de los sistemas de AI para recordar. Por ejemplo, la IA puede ser muy eficiente en el mundo jurídico, donde tradicionalmente los abogados pasan horas buscando documentos y pruebas (es decir, documentos pertinentes) para un juicio determinado. La IA puede automatizar la mayor parte del proceso mediante la clasificación previa de los documentos en dos categorías, separando las que no son pertinentes de las que podrían serlo, y debe enviarlas a un abogado para la clasificación final. Se puede encontrar una utilidad similar de IA en el proceso de fusiones y adquisiciones al buscar cláusulas en todos los contratos que pueden entrañar futuras responsabilidades. Por ejemplo, las cláusulas en los contratos de clientes que se pueden rescindir en caso de una adquisición.

Los ejemplos anteriores son factibles gracias a los avances de las técnicas de procesamiento del lenguaje natural (PLN) a efectos de clasificación. Se pueden utilizar las PLN para mejorar la productividad mediante la incorporación de asistentes virtuales para automatizar las interacciones con los clientes, que se utilizan cada vez más con los chatbots en el sector de las finanzas y en el minorista. El proceso de automatización basado en la puesta en marcha de la IA en el sector sanitario se representa mediante algoritmos que gestionan los datos relacionados con los registros médicos, los análisis de pruebas médicas, las radiografías y los TAC. Sense.ly, una empresa emergente de la industria sanitaria, desarrolló una enfermera digital llamada Molly que ayuda a los pacientes con sintomatología que no necesitan una visita a un médico. El hospital de niños de Boston utiliza de manera similar a la asistente virtual Alexa de Amazon para aconsejar a los padres sobre los tratamientos de los niños o si la sintomatología requiere una visita a un médico.

El uso de IA (y otras tecnologías digitales) para la finalidad de automatización reduce los costes, ya que requiere menos trabajo manual. Con frecuencia, la automatización es el primer paso del que muchas organizaciones se sirven en el contexto de una alta densidad digital, ya que reemplaza directamente los procesos manuales anteriores al digitalizarlos. Sin embargo, a medida que las tecnologías se extienden a más organizaciones, las empresas deben centrarse en otras interacciones más allá de la automatización (por ejemplo, la anticipación, la coordinación y/o la personalización) para mantener una ventaja competitiva.

Page 11: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

IESE Business School-University of Navarra 11

3.2. Anticipación utilizando IA

A medida que la densidad digital aumenta de forma exponencial, las organizaciones pueden aprovechar los macrodatos generados mediante la anticipación de patrones y tendencias que revelan los datos. Por lo tanto, la anticipación en este contexto significa la capacidad de hacer predicciones; es decir, usar los datos disponibles para generar un dato nuevo que no tienen las empresas. De la misma forma que la automatización se utilizó ampliamente por parte de las empresas como resultado de disponer de computación asequible, la inclusión actual de la anticipación en muchas nuevas propuestas de valor es la consecuencia de que la predicción se vuelva más barata (Agrawal, Gans y Goldfarb, 2018).

Podemos encontrar un ejemplo de una propuesta de valor utilizando la anticipación en la empresa aeronáutica Rolls-Royce, que puede informar a una aerolínea cuando un avión que aterriza necesita un mantenimiento preventivo antes de la fecha programada. De esta forma, la aerolínea puede evitar paradas no programadas, lo que conlleva ahorros sustanciales, dado que una parada no programada del avión debido a problemas técnicos supone aproximadamente un coste de 10.000 $ estadounidenses por hora. Rolls-Royce recibe datos operativos en tiempo real de más de 25 sensores por avión, para cada uno de los más de 12.000 motores de Rolls-Royce que operan en todo el mundo. Al hacer referencias cruzadas con registros de problemas con otros motores y aplicar un algoritmo predictivo, la empresa puede predecir problemas técnicos en motores específicos incluso antes de que se reflejen. El uso de IA en Rolls-Royce supuso la migración de su modelo de negocio: en lugar de vender un producto (un motor), ofrece a sus clientes, las aerolíneas, un servicio basado en el número de horas de motor del avión sin paradas no programadas (Zamora, 2016).

Otro ejemplo interesante de anticipación en el sector sanitario es Cardiogram, una empresa estadounidense que ofrece una aplicación de móvil que actúa como asistente personal sanitario. Cardiogram aprovecha los datos procedentes de los dispositivos portátiles personales como Apple Watch o Android Wear no solo para controlar el sueño y la actividad física, sino también para detectar fibrilación auricular. La fibrilación auricular es un tipo de arritmia cardíaca que causa más accidentes cerebrovasculares que cualquier otra afección cardíaca crónica y en muchos casos no se diagnostica, ya que necesita una vigilancia cardíaca continua. En 2016, Cardiogram colaboró en el estudio mRhythm (Health eHeart, 2018), junto con la Universidad de California, San Francisco (UCSF), entrenando el algoritmo profundo de aprendizaje de Cardiogram Deep Heart, con 139 millones de mediciones cardíacas provenientes de 9.750 usuarios. El resultado del estudio mostró una precisión en la detención de una fibrilación articular superior a la de los electrocardiogramas portátiles de la Administración de Alimentos y Medicamentos (FDA, por sus siglas en inglés). Cardiogram está poniendo en marcha Deep Heart fuera del estudio mRhythm para ofrecerlo a todos los usuarios de la aplicación de Cardiogram.

No obstante, un paradigma de uso en la anticipación de unas nuevas propuestas de valor es IBM Watson, que ha adquirido mucha notoriedad en los últimos años. Watson tiene capacidades de IA para procesar el lenguaje natural y generar hipótesis y para el aprendizaje basado en la evidencia. Inicialmente, IBM creó el proyecto Watson en 2006 para averiguar si un superordenador podría equipararse con las capacidades de la toma de decisión de los humanos cuando se enfrentan a desafíos complejos. En 2011, tras cinco años de trabajo y formación, se envió a Watson a competir en Jeopardy!, un programa televisivo de concursos contra dos de los mejores concursantes de rondas anteriores. Tras varias rondas de juego, Watson ganó.

Page 12: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

12 IESE Business School-University of Navarra

A raíz de los informes de los medios de comunicación, en 2013, IBM constituyó una asociación con el Memorial Sloan Kettering Cancer Center en Nueva York para emplear a Watson en las decisiones de tratamientos de cáncer de pulmón y de mama. Al tomar decisiones, Watson trata más de dos millones de páginas de artículos de investigación de revistas médicas, además de un archivo de más de 1,5 millones de registros médicos de pacientes. Para ayudar a los médicos en el tratamiento de sus pacientes, una vez que el médico ha planteado una consulta al sistema describiendo los síntomas y otros factores relacionales, Watson analiza primero la información para identificar los datos más importantes y después extrae datos del paciente para encontrar los factores relevantes de la historia médica y hereditaria de este, luego examina las fuentes de datos disponibles para formular y probar hipótesis; y, finalmente, proporciona una lista de recomendaciones individualizadas y calificadas de confianza. Basado en la totalidad de los ensayos realizados en los casos anteriores, el porcentaje de tratamientos eficaces que recetó Watson para el cáncer de pulmón es de un 90 %, mucho mayor que el 50 % que lograron los médicos (Steadman, 2013).

La ventaja de Watson sobre los seres humanos es, obviamente, su capacidad para absorber información. De hecho, en un estudio de 2017 (Wrzeszczynski et al., 2017) a IBM Watson le llevó solo 10 minutos analizar el genoma de un paciente con un tumor cerebral y sugerir un plan de tratamiento en comparación con las 160 horas que los especialistas necesitan para hacer un plan comparable. En comparación con el software tradicional, que se basa en algoritmos predeterminados y siempre genera la misma salida si se le da la misma entrada, Watson utiliza tecnología basada en el aprendizaje automático, donde el algoritmo se adapta como resultado del aprendizaje que produce durante el proceso de entrenamiento. En el caso de Watson, esto consiste en analizar la efectividad de un tratamiento entre los pacientes que lo han recibido.

En el sector financiero, la IA puede aplicarse para mejorar la calificación crediticia de un cliente determinado. Los algoritmos tradicionales no van bien para predecir el deterioro de la calificación crediticia en los últimos años. En un estudio de 2010 (Khandani, Kimz y Lo, 2010) se usó como una alternativa a la calificación crediticia tradicional un clasificador de riesgo utilizando el aprendizaje automático. Se usó un conjunto de datos de 1 terabyte compuesto por las transacciones diarias (por ejemplo, a través de tarjetas de crédito, cajeros automáticos, etc.), los datos de la agencia de calificación crediticia y el balance de cuentas para un conjunto de clientes de un banco comercial, que representaron el 1 % de los datos que generó el banco para el periodo comprendido entre enero de 2005 y abril de 2009. El estudio mostró que el aprendizaje automático funcionó mejor como un clasificador de riesgo que los algoritmos tradicionales de calificación crediticia.

Anteriormente se podía rechazar a algunos clientes buenos a causa de una baja puntuación utilizando los algoritmos tradicionales y, en cambio, se podía aceptar a algunos clientes malos, ya que obtenían una puntuación alta. Usando este método alternativo, los bancos pueden conseguir una reducción de costes, mediante una mejor identificación de las operaciones de más riesgo, y al mismo tiempo, generar un nuevo negocio con personas que de otra forma no tendrían ocasión de convertirse en clientes.

En todos los ejemplos anteriores, la utilización de la IA es la forma de interacción de anticipación que permite a las organizaciones predecir el estado del mundo físico, que es un factor crítico en el desarrollo de nuevas propuestas de valor. Los impulsores empresariales principales son: descripción, predicción y prescripción. En primer lugar, podemos utilizar la IA para describir un proceso complejo que de otra forma no sería evidente detectar —como si se estuviese utilizando un microscopio digital—, como en el caso de la aplicación de Cardiogram para detectar la fibrilación articular. En segundo lugar, podemos utilizar la IA para predecir patrones futuros

Page 13: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

IESE Business School-University of Navarra 13

basados en las condiciones actuales, como en el caso de los motores Rolls-Royce o la clasificación de riesgo para créditos al consumo utilizando el aprendizaje automático. Por último, podemos utilizar la IA para indicar o recomendar un curso de acción; por ejemplo, IBM Watson recomienda un tratamiento específico oncológico para un paciente determinado.

3.3. Coordinación utilizando IA

Tradicionalmente, las organizaciones han ofrecido sus propuestas de valor que operan dentro de los límites de la cadena de valor lineal de un sector determinado (por ejemplo, automoción, banca, etc.). Esta situación se derivó del alto coste de las transacciones (por ejemplo, coordinación, producción, etc.), que provocó que no fuese factible realizarlo de otra forma. En consecuencia, las propias organizaciones controlaron y crearon totalmente los productos y servicios, con la participación de los proveedores presentes en su cadena de valor. Sin embargo, a medida que aumenta la densidad digital, es posible definir nuevamente la forma en la que se cumplen las necesidades de los clientes más allá de lo que proporciona la cadena de valor tradicional. En otras palabras, ahora las nuevas propuestas de valor pueden ser fruto de la coordinación de participantes variados y numerosos (por ejemplo, las organizaciones, las personas y los objetos).

A medida que aumenta el número de participantes involucrados en una propuesta de valor determinada, aumenta sustancialmente la complejidad de la coordinación, ya que el número de posibles interacciones y oportunidades de aprendizaje se incrementa de manera combinatoria exponencial. En estos escenarios, el uso de la inteligencia artificial distribuida (DAI, por sus siglas en inglés) puede resultar útil para construir nuevas propuestas de valor. Los sistemas de inteligencia artificial distribuida están formados por participantes autónomos inteligentes, denominados agentes, que se distribuyen físicamente y a menudo a gran escala. Un ejemplo podría ser la aplicación de la inteligencia artificial distribuida en el cálculo del trazado idóneo de las rutas de una gran flota de vehículos en una plataforma móvil (por ejemplo, Uber, Cabify, etc.).

En todos estos ejemplos, el uso de la IA para la coordinación de las interacciones permite a los diferentes participantes trabajar juntos en nuevas propuestas de valor, sin la restricción de pertenecer a las mismas cadenas de valor lineales tradicionales y sin las limitaciones de tamaño (es decir, número de participantes) o ubicación física. Hoy en día, el uso de la IA para las interacciones de coordinación no es tan frecuente como en el caso de los otros tres tipos de interacciones (es decir, automatización, anticipación y personalización). Sin embargo, a medida que avanzamos hacia un mundo hiperconectado de alta densidad digital, las organizaciones, las personas y los objetos pueden coordinarse independientemente de su número y de su ubicación física. Por ejemplo, la ciudad china de Cantón, con una población de 16 millones de personas, más de 16.000 km de carreteras y un flujo diario de 3,5 millones de vehículos, utiliza el programa City Brain, basado en AutoNavi, el sistema de gestión de tráfico de Alibaba. City Brain (Alibaba Cloud, 2018) permite al centro inteligente de la policía de tráfico de Cantón analizar macrodatos procedentes de transmisiones de vídeo, redes sociales e información de tráfico para optimizar las señales de tráfico y reorganizar su red de carreteras en tiempo real.

Por lo tanto, a medida que la densidad digital continúa creciendo, creará un nuevo escenario de inteligencia colectiva donde las personas y los ordenadores (es decir, la computación asociada con los objetos y/o las organizaciones) podrían actuar de manera más inteligente que cualquier persona, grupo u ordenador (Malone, 2018), habilitando otro nivel de propuestas de valor basado en la IA.

Page 14: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

14 IESE Business School-University of Navarra

3.4. Personalización utilizando IA

Hasta hace poco, las organizaciones competían en sus mercados utilizando estrategias de precios o de diferenciación (Porter, 1979); es decir, compitiendo en precio en un mercado masivo o desarrollando productos para un nicho de mercado concreto. Cuando la densidad digital aumenta, las empresas pueden crear una oferta totalmente personalizada para diferentes consumidores (Anderson, 2006), en función de los datos que reflejan los hábitos y las preferencias de un consumidor individual. La IA se utiliza en la interacción de personalización para predecir una propuesta de valor correcta para un cliente determinado, según los datos recopilados que reflejen sus hábitos y sus preferencias.

Un ejemplo de aplicación de IA en una interacción de personalización es la empresa de seguros de automóviles de EE. UU. Progressive, donde los clientes pudieron optar por conectar un dispositivo pequeño llamado Snapshot en los sistemas de diagnóstico a bordo (OBD, por sus siglas en inglés) del coche o instalando la aplicación Snapshot en sus teléfonos inteligentes. Snapshot rastrea sus hábitos al conducir (por ejemplo, la forma en la que gira el volante o la forma en la que frena, etc.) y envía los datos a Progressive. El programa Snapshot ha recopilado más de 13 000 millones de millas de datos de conducción en 2016. Todos estos datos los procesa el socio de Progressive, H2O.ai, utilizando datos predictivos. De esta forma, la empresa se vuelve más eficiente en sus operaciones (por ejemplo, gestión de reclamaciones, detección del fraude, mejora analítica, etc.) y, al mismo tiempo, personaliza la experiencia del cliente. Aquellos clientes que por voluntad propia deciden compartir los datos recopilados por Snaphot para el periodo de la primera póliza de seguro, que es normalmente medio año, obtienen una tasa de seguro personalizada basada en su manejo real, en lugar de los criterios estándar de seguros de automóvil, como edad, modelo de vehículo o zona de residencia.

Otra aplicación de la IA como interacción de personalización se puede encontrar en la medicina de precisión, adaptando un tratamiento médico a las características individuales de cada paciente. La medicina de precisión consiste en analizar la forma en la que interactúan diversas características biológicas de los pacientes con múltiples moléculas farmacéuticas con el fin de combinar con más acierto los medicamentos para mejorar la salud de los pacientes. Sin embargo, la medicina de precisión no se ha convertido en una realidad debido a los costes inasequibles asociados con la explosión combinatoria requerida de los ensayos clínicos que serían necesarios. Por esta razón, las empresas farmacéuticas tradicionalmente han ofrecido una atención estándar a un paciente promedio hipotético. La empresa estadounidense GNS Healthcare procesa millones de puntos de datos de todo tipo –registros médicos electrónicos, genéticos, proteómicos, genómicos, reclamaciones, de consumo, de laboratorio, de prescripción, de salud móvil, sociodemográficos, etc.– para modelar la respuesta del paciente al tratamiento vía simulación computacional; es decir, aplicando una simulación por ordenador en lugar de ensayos clínicos. GNS Healthcare, utilizando el aprendizaje automático, reconstruye enfermedades complejas en modelos computacionales, lo que permite a las empresas farmacéuticas simular escenarios del mundo real, aumentando la velocidad de descubrimiento de nuevos medicamentos de años a meses.

En los dos ejemplos anteriores de Progressive y GNS Healthcare, el uso de la IA en la personalización de las interacciones permite a las empresas crear una propuesta de valor específica y asequible basada en las necesidades de los clientes. En muchos de esos casos, la interacción de personalización también está relacionada con la interacción de anticipación. Por ejemplo, la aplicación de tráfico Waze utiliza una interacción de anticipación para aprovechar los macrodatos recibidos de los conductores con fines de predicción, mientras que la interacción de personalización se centra en los datos personales (es decir, la ubicación de un automóvil

Page 15: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

IESE Business School-University of Navarra 15

determinado), como la entrada para cambiar el comportamiento (es decir, un conductor que cambia su ruta siguiendo las recomendaciones de Waze). Otro ejemplo es el motor de recomendaciones de Amazon, que analiza todas las transacciones del cliente y las agrupa en conjuntos de clientes con comportamientos y gustos similares (es decir, anticipación) para recomendar productos potenciales a un cliente determinado (es decir, personalización). A medida que los algoritmos de IA para anticipación y personalización continúan mejorando, Amazon a la larga puede cambiar su modelo de negocio de comprar y luego enviar por transporte y después comprar, como insinuó la patente que Amazon presentó en 2013 para lo que denominó “envío anticipado”.

4. Implicaciones de la IA en las organizaciones

En el apartado anterior, vimos que la IA representa una tecnología importante en términos de construir nuevas propuestas de valor como una combinación de interacciones de automatización, anticipación, coordinación y personalización. Sin embargo, la presentación de la IA en un modelo de negocio en una empresa puede también tener un gran impacto en su modelo organizativo. En esta sección, las implicaciones de la IA se analizan en tres niveles: en primer lugar, identificar retos específicos que surgen cuando una organización pone en marcha una nueva propuesta de valor basada en la IA; en segundo lugar, centrarse en las nuevas capacidades que necesita una organización para integrar la tecnología de IA, y en tercer lugar, enfatizar la importancia de algunos principios de la gobernanza de la IA cuando los datos se convierten en el activo crítico para cualquier negocio.

4.1. Retos al presentar la IA

Sin lugar a dudas, un aumento en la densidad digital permite a las organizaciones aprovechar muchos beneficios al crear nuevas propuestas de valor, como se describe en el apartado anterior. Sin embargo, este escenario también crea nuevos retos, en concreto en el contexto de la IA, donde las organizaciones necesitan, reconocen y abordan ciertos problemas que pueden surgir en relación con:

La privacidad, relacionada con la cantidad de datos personales necesarios para entrenar los algoritmos de AI.

La integración, relacionada con la propiedad y el uso de datos utilizados para propuestas de valor que se obtienen como resultado de la coordinación entre varias partes.

La fiabilidad, relacionada con la calidad de los resultados del modelo de IA.

La seguridad, relacionada con la vulnerabilidad de los modelos de IA contra los ciberataques.

4.1.1. Privacidad

Sin embargo, una mejor personalización implica recopilar y almacenar cada vez más datos individuales del cliente, por lo que se incrementa el desafío de la privacidad. Un escenario de futuro cercano puede involucrar a una empresa que puede predecir, a través de biosensores, la probabilidad de que una persona desarrolle una enfermedad grave. Por lo tanto, un proveedor de seguros de salud podría potencialmente discriminar a un cliente al negar la cobertura a las personas con mayores riesgos. Esta tensión de personalización y privacidad incluso se puede

Page 16: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

16 IESE Business School-University of Navarra

encontrar en un simple robot aspirador que crea un mapa de un apartamento para saber qué partes ya se han limpiado. Por esta razón, los consumidores solo aceptarán estas nuevas propuestas de valor si confían en la organización que las proporciona y es transparente en el uso de los datos personales. Se han dado los primeros pasos para aumentar los niveles de privacidad de los datos personales mediante la introducción de nuevas regulaciones y requisitos de cumplimiento, como el Reglamento General de Protección de Datos (RGPD) adoptado por la Unión Europea (UE), que también limita el tipo de datos que puede utilizar una organización para entrenar sus algoritmos de IA.2

4.1.2. Integración

En un mundo de alta densidad digital, las propuestas de valor son a menudo el resultado de la cooperación de varias organizaciones dentro de ecosistemas más ricos. Por esta razón, tales asociaciones necesitan el establecimiento de cláusulas de datos con respecto a la propiedad y limitación del uso de datos por parte de las empresas participantes. En el ejemplo anterior sobre el mantenimiento predictivo de los motores de aeronaves, Roll-Royce ve su valor operacional en los datos agregados de todos los motores, mientras que la aerolínea y/o el fabricante de aeronaves solo tiene o tienen acceso a una fracción de los datos recopilados sin elaborar y no tiene o tienen acceso a un panorama más amplio. Es posible que las empresas industriales no quieran compartir sus datos por razones de cumplimiento (por ejemplo, máquinas médicas) o problemas de competencia, lo que limita las capacidades de aprendizaje de la máquina (es decir, reduce el conjunto de datos de entrenamiento del equipo gestionado por la organización). Con el fin de armonizar las preocupaciones de las empresas industriales sobre compartir sus datos debido a la preocupación de compartir información valiosa sobre sus productos, algunas organizaciones han decidido compartir los datos con el único fin de usarlos como un conjunto de datos de entrenamiento para algoritmos de IA. Sin embargo, conservan la propiedad de los datos para estar protegidos de los riesgos de cumplimiento y seguridad.

4.1.3. Fiabilidad

La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan los algoritmos de IA es importante y, por otro lado, la fiabilidad del software de esos algoritmos representa desafíos. Asegurar la calidad de los datos está relacionado con la gobernanza de estos, que se tratará más adelante en este capítulo. En referencia a la fiabilidad de los algoritmos de IA, es importante tener en cuenta no solo sus posibilidades, sino también sus limitaciones. Abordar la calidad de los datos y los problemas de fiabilidad del algoritmo dentro de las empresas ayudará a las organizaciones a descartar inversiones sin retorno alguno. También les ayudará a no alabar los resultados de los proyectos relacionados con la IA para evitar decepciones y escepticismo con respecto a la utilidad de la IA.

Las técnicas de aprendizaje del algoritmo de IA (Zamora y Herrera, 2018) se basan en el entrenamiento de un modelo con datos. Sin estos datos, el entrenamiento no es posible y, por lo tanto, no es posible generar ningún modelo. Muchas veces las empresas solicitan una evaluación sobre la cantidad de datos que se necesitan para entrenar un modelo. Esto depende del caso particular y de la complejidad del algoritmo. Sin embargo, la pregunta correcta que 2 El RGPD se centra específicamente en proteger los datos y garantizar su privacidad. Cualquier organización que opere dentro de la UE estará obligada a recopilar datos legalmente y bajo condiciones estrictas y protegerlos de un uso indebido por parte de terceros; de lo contrario, se le multará. Las organizaciones necesitan usar la configuración de privacidad más alta, para que los datos no se hagan públicos. La RGPD permite a las personas desafiar a las organizaciones para revelar o eliminar sus datos personales.

Page 17: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

IESE Business School-University of Navarra 17

deben abordar los ejecutivos de negocios no debe estar relacionada con la cantidad de datos necesarios, sino más bien con qué problema se puede resolver con los datos disponibles. Si una organización no tiene muchos datos, es recomendable utilizar aquellos algoritmos que sean más resistentes al aprendizaje con menos datos, pero que sin embargo, impliquen niveles de confianza más bajos. Por ejemplo, si necesita un modelo de predicción para las ventas semanales de productos en una tienda de venta al por menor, es lógico solicitar los datos de ventas de varios años de cada producto por semana, así como las series de tiempo con variables potencialmente explicativas (por ejemplo, días festivos, clima, indicadores macroeconómicos, canal de ventas etc.).

Un sistema de IA con una alta calidad de predicción puede dejar de funcionar tan bien en cualquier momento, o, dicho de otra manera, un sistema de IA debidamente entrenado con datos anteriores puede dejar de ser correcto con las circunstancias actuales si estas circunstancias cambian las razones por las cuales ocurrieron los casos anteriores. Por ejemplo, un consumidor que compra ropa de temporada durante años en una tienda puede cambiar sus hábitos con la presencia de un competidor que se adapte mejor a sus necesidades y que tenga mejor precio.

Debido a esta limitación, es esencial en la situación actual crear sistemas de IA con entrenamiento continuo incorporado, pero también con la capacidad de distinguir el ruido en los datos; es decir, eventos no relevantes para el entrenamiento pero que pueden distorsionar los resultados.

El grado de confianza del modelo resultante construido con un algoritmo de aprendizaje automático se puede medir, comparando la predicción del modelo con lo que sucedió en el pasado. Cuanto mayor sea el número de casos en los que la predicción coincida con la realidad, mayor será el grado de confianza en el modelo. No obstante, en ningún caso el grado de confianza de un modelo garantiza plenamente su éxito en una aplicación práctica futura, ya que muchos modelos sufren lo que se conoce como sobreentrenamiento; es decir, el proceso de aprendizaje se ha adaptado demasiado a los datos de entrenamiento y, a pesar de su alto grado de confianza, la aparición de circunstancias que generan relaciones entre datos que difieren del pasado impide que el modelo funcione bien en la práctica.

4.1.4. Seguridad

Una de las consecuencias de un mundo hiperconcetado es que la superficie de ataque de una organización crece de manera exponencial. Por esta razón, proteger la integridad de los datos de los ciberataques es de particular importancia cuando los datos activan los algoritmos de IA. Por lo tanto, la seguridad en el contexto de las propuestas de valor basadas en la IA van más allá del tipo de ciberataques (Sieber y Zamora, 2009) que hemos experimentado hasta ahora, algo que se denomina aprendizaje automático adverso. Este tipo de ataque saca provecho de las limitaciones del diseño de la red neuronal utilizada en muchos algoritmos, que no operan de la misma forma en que lo hace el cerebro humano. Un pirata informático (es decir, un adversario malintencionado) puede manipular los datos de entrada de un algoritmo de IA, ya sea en la fase de entrenamiento o en la de operación, para engañar a los sistemas para que vean o escuchen algo que comprometa a todo el sistema de seguridad.

Un ataque en tiempo de entrenamiento puede suceder en una etapa de construcción de un modelo de aprendizaje mediante el uso de datos maliciosos. Un ataque en el tiempo de inferencia utiliza entradas específicamente sintetizadas que afectan al modelo. Algunos ejemplos de piratería informática sobre la IA pueden parecer inocentes, como una red neuronal

Page 18: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

18 IESE Business School-University of Navarra

que confunde a una tortuga con un fusil en una foto. Sin embargo, algunos errores de IA pueden provocar mayores alteraciones, como un coche de conducción autónoma que no se detenga en una señal de detención obligatoria, porque estaba parcialmente cubierto por adhesivos en blanco y negro cuidadosamente diseñados (Eykholt et al., 2018).

Dado que cada vez más propuestas de valor dependen del uso de la tecnología de IA, es importante identificar los riesgos potenciales relacionados con los ataques adversos con anticipación (es decir, los principios de diseño seguro) y construir ciertas defensas para protegerlos.

4.2. Nuevas capacidades al adoptar la IA

Cuando una organización considera la puesta en marcha de nuevas tecnologías de IA, es recomendable hacerlo de forma progresiva para evaluar su idoneidad y preparar la estructura organizativa y las capacidades tanto a nivel operativo como de gestión para integrar con éxito la tecnología y preparar la tecnología de IA en su modelo de negocio.

Con bastante frecuencia, las organizaciones comienzan con una prueba donde la IA se puede utilizar para crear una nueva propuesta de valor para la automatización, la anticipación, la coordinación y la personalización. En estas fases iniciales, el énfasis debe ponerse en el experimento interactivo, en la construcción de un producto mínimo viable y métricas de seguimiento, que permiten probar hipótesis iniciales o indicadores de éxito. Una vez que la propuesta de valor se haya validado en el proyecto piloto, las organizaciones pueden comenzar a ponerla en marcha a mayor escala al reemplazar o mejorar los procesos actuales. Esto comportará la reducción de costes y/o la generación de nuevas fuentes de ingresos. Además, los nuevos datos generados por el cliente que utiliza estos nuevos productos y servicios se pueden usar, a su vez, para descubrir o mejorar las nuevas propuestas de valor —mediante el uso de la IA como impulsor de la innovación— cerrando un círculo virtuoso.

De hecho, la mayoría de los algoritmos de la IA pueden obtenerse con facilidad. Sin embargo, el acceso a los datos de calidad es la principal barrera de entrada para conseguir un modelo de negocio sostenible y competitivo. Por esta razón, es fundamental definir una estrategia de adquisición continua de datos (por ejemplo, tener un almacén de datos unificado), no solo con la finalidad de formación en IA, sino también como fuente para futuras innovaciones. Esto requiere el desarrollo de nuevas capacidades operativas en la organización relativas a la aplicación y al uso correcto de las técnicas de IA.

En este sentido, muchas organizaciones incorporan nuevos perfiles profesionales, como científico de datos (Zamora y Herrera, 2018). Un científico de datos ideal debería tener formación en matemáticas aplicadas y un buen conocimiento de los lenguajes de programación y de gestión de base de datos. Además, un científico de datos debe orientarse hacia resultados prácticos pero con un gran componente de creatividad, especialmente cuando se trata de definir el entrenamiento de datos de un algoritmo de IA.

Sin embargo, las organizaciones afrontan algunos problemas para ocupar este puesto. Entre las dificultades con las que se encuentran las organizaciones cuando buscan un científico de datos, cabe citar: dominio del conocimiento del negocio, habilidades de comunicación y comprensión e identificación de los diferentes y heterogéneos repositorios de datos de la empresa. Para superar estas limitaciones, el rol de un científico de datos a menudo se ofrece conjuntamente con otros roles, como los traductores comerciales que interpretan los desafíos del negocio, los

Page 19: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

IESE Business School-University of Navarra 19

puntos de mejora y las oportunidades, y los traducen en propuestas que pueden ponerse en marcha utilizando IA.

Además, las organizaciones deben incorporar perfiles especializados para la búsqueda de los datos de entrenamiento necesarios de una manera más eficiente. En algunos casos, la disponibilidad de un almacén de datos unificado o cualquier otro repositorio centralizado de información simplifica la tarea, pero siempre existe la enorme tarea de búsqueda posterior entre los diferentes atributos comerciales de los cuales se compone el conjunto de datos de entrenamiento. El conocimiento de que este perfil debe actuar de acuerdo con los requisitos reglamentarios siempre que procese datos personales (por ejemplo, RGDP) merece una mención especial.

La tecnología de IA se convierte en una tecnología central en los modelos de negocios de las organizaciones, las nuevas funcionalidades (Daugherty y Wilson, 2018) relativas a todo lo que necesitará la gobernanza de la IA. Se describirá más detalladamente en el próximo apartado.

4.3. Algunos principios de gobernanza con la IA

Como se describió en los apartados anteriores, la presentación de la tecnología de IA como parte de unas nuevas propuestas de valor hará frente a desafíos específicos de privacidad, integración, fiabilidad y seguridad, a la vez que a las dificultades para adquirir nuevas capacidades necesarias para gestionarlas. Sin embargo, dado que la tecnología de IA se utiliza tanto para sustituir como para aumentar la capacidad humana, los directores generales deben tener cuidado con el impacto de la IA en sus propios procesos de decisiones, en empleados, en clientes que usan sus productos y en la sociedad en general. Por estas razones, los directores generales deben tener cuidado y actuar en consecuencia con respecto a las repercusiones externas de la IA, especialmente las que son negativas, más allá de su impacto sobre los modelos empresariales.

En primer lugar, las organizaciones se enfrentarán a cuestiones importantes relacionadas con la equidad de los algoritmos implementados según el sesgo3 incorporado en el conjunto de datos de entrenamiento. En segundo lugar, dado que los algoritmos de IA se integrarán en el proceso de toma de decisiones, deberán afrontarse los asuntos relacionados con la responsabilidad en el caso de resultados no deseados. En tercer lugar, los directores generales confiarán en los sistemas de IA solo si estos sistemas pueden ser transparentes y explicables (por ejemplo, pueden explicar la forma en la que se obtuvieron ciertos resultados) en lugar de ser simplemente una caja negra. En cuarto lugar, los directores generales deben ser conscientes de las implicaciones éticas del uso de sistemas basados en los valores (función de utilidad) con los que se diseñaron los algoritmos de IA. Por último, los directores generales deben seguir la sabiduría práctica, actuando sobre la base de lo que es correcto para todas las partes interesadas.

Con la tecnología de vanguardia actual de IA, los problemas actuales a los que se enfrentan las organizaciones no se relacionan con la posibilidad de que los sistemas de IA alcancen un poder de inteligencia superior (Bostrom, 2014) que anule cualquier control humano, sino todo lo contrario, se basan en las deficiencias de la tecnología de IA de hoy en día, que carece de capacidades humanas inherentes, como la generalización, el pensamiento abstracto y la capacidad de hacer analogías. En palabras de Pedro Domingos, profesor de la Universidad de Washington y un investigador líder en IA, “la gente se preocupa de que los ordenadores son demasiado inteligentes y controlan el mundo, pero el problema real es que son demasiado

3 En este contexto, los sesgos no se refieren a su significado estadístico sino a la inclinación o perjuicio por o contra otra persona o grupo, especialmente de una manera considerada injusta.

Page 20: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

20 IESE Business School-University of Navarra

estúpidos y ya tienen el control del mundo” (Domingos, 2015). Esto significa que los algoritmos de IA todavía no poseen la capacidad de entender las cosas como lo hacen los humanos, lo que puede tener consecuencias arriesgadas.

Estas limitaciones de IA están directamente relacionadas con la calidad de los datos utilizados y el diseño de los algoritmos. Por lo tanto, las organizaciones deben conocer sus datos y confiar en ellos antes de comenzar a utilizar la tecnología de IA. Data for good (‘datos para siempre’) (Wing, 2018) se ha defendido en el campo científico y tecnológico como principio rector del uso de datos a lo largo de todo el ciclo de vida de estos. En el mundo de la gestión, debe utilizarse un principio similar al adoptar la IA en el proceso de toma de decisiones e integrar la IA en la oferta de la empresa. Este principio rector del diseño de algoritmos de uso y diseño de datos también se conoce con el acrónimo FATE, por las siglas en inglés (equidad, responsabilidad, transparencia y ética) (FAT/ML 2018) (Microsoft, 2018). En el contexto específico de la dirección general, proponemos añadir unos principios rectores suplementarios, basados en la sabiduría práctica, para abordar los temas de:

Equidad, relacionada con el sesgo introducido por el conjunto de datos de entrenamiento de los algoritmos de IA.

Responsabilidad, relacionada con la responsabilidad de las decisiones basadas en los modelos de IA.

Transparencia, relacionada con el aprovechamiento de los modelos de IA.

La ética, relacionada con los valores sobre los que se construyen los sistemas de IA.

Sabiduría práctica, relacionada con el buen juicio de la dirección general tanto si se usa como si no la IA sobre la base de lo que es correcto para las partes interesadas.

4.3.1. Equidad

Como hemos visto en este capítulo, la IA es una poderosa tecnología, capaz de atender mejor a los clientes y obtener una mejor perspectiva en la organización. Sin embargo, deben obtenerse estas ventajas mientras se evita exponer a las personas a cualquier clase de injusticia como resultado de posibles sesgos presentados mediante la adopción de IA. En este contexto, la equidad significa que los modelos de IA deben dar lugar a clasificaciones o predicciones imparciales. Un ejemplo trivial se puede encontrar en el buscador de imágenes de Google Images. Para la consulta de CEO, se obtienen de forma abrumadora imágenes de hombres trajeados, que reflejan el hecho de que, históricamente, las mujeres han tenido dificultades para acceder a puestos ejecutivos de categoría superior con condiciones equivalentes a los hombres. En este caso, el conjunto de datos de entrenamiento contiene el sesgo de género de tener muchos más hombres que mujeres en los cargos de CEO.

Dado que un modelo de IA es el resultado de entrenar un algoritmo con datos, el sesgo proviene de los datos utilizados o del propio algoritmo. Sin embargo, los algoritmos reflejan los valores de las personas que los diseñaron y codificaron. Esto es algo que incluiremos más adelante, al considerar las implicaciones éticas de la IA. Por esta razón, las organizaciones deben prestar especial atención a los sesgos que contiene el conjunto de datos de entrenamiento que utilizan los algoritmos de IA. Aunque muchos sistemas de IA se crearon con las mejores intenciones, estos sistemas de IA tienen cada vez más un impacto directo sobre la vida de las personas (O’Neil, 2016). En consecuencia, los datos sesgados deben ser un motivo de preocupación para muchas organizaciones, debido a las consecuencias importantes en materia de responsabilidad en áreas como el acceso a la vivienda, la aplicación de la ley y el empleo.

Page 21: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

IESE Business School-University of Navarra 21

Un estudio reciente (Buolamwini y Gebru, 2018) evaluó el riesgo de tres aplicaciones comerciales de software de reconocimiento facial (Microsoft, Face++ e IBM). El estudio mostró que el software estaba en lo correcto para el 99 % de las imágenes de fotos de hombres blancos. Sin embargo, el porcentaje de error estaba prácticamente en el 35 % para las imágenes de mujeres con la piel más oscura. El estudio concluyó que los sesgos de género y raza se debían al conjunto de datos utilizado para entrenar estos programas de software. De hecho, se estimó que, en el conjunto de datos de entrenamiento utilizado por el software de reconocimiento facial, cerca del 75 % de las imágenes mostraban a los hombres y más del 80 % de ellos eran hombres blancos. Estos resultados indican que hay una necesidad urgente de corregir los datos sesgados por género y raza si las empresas desean incorporar este tipo de software en sus propuestas comerciales.

No obstante, el sesgo del modelo de IA puede tener consecuencias aún más graves y causar la estigmatización social por fortalecimiento de estereotipos. Este parece ser el caso del software COMPAS (perfil de gestión de delincuentes correccionales para sanciones alternativas), desarrollado por la empresa estadounidense Northpointe, que se utiliza en los tribunales de los EE. UU. para predecir la reincidencia de los delincuentes. COMPAS se ha convertido en una herramienta utilizada por los jueces para guiarlos al elaborar las sentencias mediante la identificación de posibles reincidentes en un crimen futuro. Según un estudio reciente publicado en ProPublica (Angwin, 2016), COMPAS predijo las reincidencias correctamente en el 61 % de los casos. Sin embargo, mostró un fuerte sesgo hacia las personas de raza negra, que fueron calificadas con un alto riesgo de reincidencia en el 44 % de los casos, pero finalmente no reincidieron. Por otra parte, se calificó de alto riesgo a las personas blancas que no reincidieron solo en el 23 % de los casos.

Por estas razones, los directores deben tener en cuenta antes del desarrollo y despliegue de la IA la calidad de los datos utilizados por los algoritmos. Intel, en su artículo técnico Public Policy Opportunity (Intel, 2017), sugiere mitigar el sesgo mediante el uso de algoritmos verificados, modelos de datos y conjuntos de entrenamiento bien revisados, realizando una extensa validación de los sistemas de IA y estando alerta sobre las posibles implicaciones de equidad de las decisiones basadas en IA. En este sentido, dado que las empresas están utilizando varias fuentes de datos para alimentar sus algoritmos de IA, se requerirá un rol de higienista de datos (Daugherty y Wilson, 2018). Su papel será liberar los datos de cualquier ruido o sesgo oculto.

4.3.2. Responsabilidad

La responsabilidad siempre ha sido un concepto crucial en la gestión. Según Peter Drucker (Drucker, 1973), los líderes en una organización son responsables del cumplimento de sus instituciones y deben rendir cuentas sobre él, y también son responsables de la comunidad en general. Por lo tanto, la responsabilidad implica el conocimiento y la asunción de responsabilidad por las acciones, productos y decisiones dentro del alcance de la función de gestión. Sin embargo, en el contexto de la IA, la responsabilidad puede ser más desafiante, ya que detrás de una decisión o un producto también hay datos y algoritmos. Un ejemplo es el estudio de 2015 (Datta, Tschantz y Datta, 2015) de Google Ads, utilizando una herramienta que se llama AsFisher, desarrollada por la Universidad Carnegie Mellon, que realiza experimentos usando perfiles de usuario simulados. El estudio reveló que los anuncios de empleos bien remunerados se mostraban más para hombres que para mujeres en Google. Sin embargo, en esta situación, no está claro quién es responsable de este resultado de discriminación. Podrían ser los anunciantes dirigidos al anuncio, o el diseño de la plataforma de publicidad de Google, o el hecho de que los hombres hagan más clic en este tipo de anuncio —lo que lleva a un aumento en la frecuencia

Page 22: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

22 IESE Business School-University of Navarra

de aparición de estos anuncios en los hombres, o incluso a una mayor competencia por el espacio publicitario para las mujeres—, lo que da como resultado una reducción en la frecuencia de aparición de estos anuncios para las mujeres.

Anteriormente en este capítulo, se mencionó la forma en la que IBM Watson ayuda a los oncólogos en el diagnóstico y el tipo de tratamiento de sus pacientes. Sin embargo, si Watson proporciona una recomendación de tratamiento con consecuencias fatales para el paciente, ¿quién será responsable de este resultado no deseado: el oncólogo, el hospital o IBM? Este escenario puede suceder hipotéticamente, como se señaló en el sitio web de noticias orientado a la salud STAT (Ross y Swetlitz, 2018). En julio de 2018, STAT informó sobre “varios ejemplos de recomendaciones de tratamiento peligrosos e incorrectos” en los tratamientos para el cáncer elaborador por Watson.

Reflexionando sobre estos temas de responsabilidad, el Future of Life Institute llevó a cabo la conferencia Asilomar (Future of Life Institute, 2017) sobre los beneficios de la IA en 2017, creando un conjunto de veintitrés pautas para los investigadores de IA. Estas pautas pueden extenderse a los directores de las organizaciones, ya que son las principales partes interesadas en las repercusiones morales del uso, el mal uso y las acciones relacionadas con la tecnología de IA. Las organizaciones deben comprometerse con la responsabilidad de dar forma a esas repercusiones y adoptar políticas internas coherentes con los criterios sociales externos. Las empresas deben poner en marcha los sistemas necesarios y los programas de formación para que los directores utilicen las herramientas de IA y sean responsables de los resultados.

4.3.3. Transparencia

El tercer principio rector en el uso de la IA es la transparencia. Las organizaciones solo pondrán en marcha sistemas de IA si esos sistemas pueden ser transparentes y explican la forma en la que alcanzan un resultado, en lugar de actuar simplemente como una caja negra o un sistema para el cual solo podemos observar entradas y salidas. Hasta ese punto, la transparencia puede facilitar la responsabilidad en el uso de la tecnología de IA. Cuando las organizaciones y los directores comienzan a confiar en gran medida en los algoritmos para tomar decisiones cada vez más importantes, se les pedirá que cuenten con los mecanismos correctos de explicación si los resultados resultan inaceptables o difíciles de entender. Por ejemplo, si IBM Watson recomienda a un paciente un tratamiento que parece incorrecto para el médico, el médico confiará en la recomendación de Watson (IBM, 2018) si el sistema explica, en términos comprensibles, los factores (por ejemplo, resonancias magnéticas, documentos científicos, etc.) que contribuyen al resultado final.

Además, también se necesita transparencia para brindar un trato justo a cualquier persona afectada por el resultado de la IA. Este es el caso de Sarah Wysocki (O’Neil, 2016), una profesora de quinto curso en la MacFarland Middle School de Washington D. C. Tras dos años en el colegio, recibía excelentes evaluaciones por parte del director y de los padres de los estudiantes. Sin embargo, a finales del año académico 2010-2011, se despidió a Wysocki por una puntuación muy baja en su evaluación por parte de IMPACT. IMPACT es una herramienta de IA, que aprobó en 2009 el rector de los colegios de Washington con el objetivo de dar la vuelta a los colegios con bajo rendimiento de la ciudad. IMPACT trata de medir la efectividad de un educador determinado en la enseñanza de las habilidades de matemáticas e idiomas. Aunque la intención inicial de IMPACT era minimizar el sesgo humano, como “los profesores malos que pueden parecer buenos”, al fin y al cabo, es extremadamente complejo calcular el impacto que una persona puede tener en otra durante un año, dado que existen muchos otros impactos sociales que intervienen en la ecuación. Sin embargo, cuando Wysocki, al igual que otros maestros

Page 23: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

IESE Business School-University of Navarra 23

despedidos, exigieron detalles de los criterios de evaluación, muchos directores de los centros escolares fueron incapaces de proporcionar una explicación detallada, ya que no conocían el funcionamiento interno de IMPACT.

La transparencia es un desafío para las organizaciones, ya que puede requerir revelar la propiedad intelectual mediante la obligada publicación de los modelos de IA. Por lo tanto, es importante aclarar las situaciones cuando se deben dar explicaciones y si necesitan una descripción detallada del funcionamiento interno de la IA o, más bien, una justificación para el resultado particular (Doshi-Velez y Kortz, 2017). Además, el nuevo RGPD de la UE incluye el “derecho a explicar” al proporcionar “información significativa sobre la lógica implícita”.

Debido a la naturaleza de los algoritmos actuales de IA, especialmente aquellos basados en redes neuronales profundas, ha sido casi imposible entender la forma en la que la IA alcanza sus impresionantes resultados. Sin embargo, a medida que el aprovechamiento es cada vez más importante, los investigadores (Binder et al., 2016) están estudiando los mecanismos de explicación para los algoritmos de IA, como la propagación de relevancia por capas (LRP, por sus siglas en inglés). Estos mecanismos pueden adoptar un resultado de IA y trabajar hacia atrás a través de la red neuronal del programa para revelar la forma en la que se tomó una decisión. Además, las organizaciones deberán contratar un nuevo tipo de profesional de IA denominado explicador de IA (Daugherty y Wilson, 2018), cuya función principal será explicar el funcionamiento interno de los algoritmos complejos de IA. En algunos casos, estos profesionales podrían actuar como analistas forenses de algoritmos para proporcionar una explicación satisfactoria, auditable por una autoridad competente, del sistema de AI de una organización.

4.3.4. Ética

El cuarto principio rector en el uso de la IA es la ética. A medida que los humanos delegan cada vez más decisiones en los sistemas de IA, tarde o temprano nos enfrentaremos a dilemas morales. Una versión adaptada del llamado problema del trolley (Thomson, 1976) se puede encontrar en los vehículos autónomos. Imagine que un vehículo autónomo tiene un fallo mecánico y es incapaz de parar. El sistema de IA (que actúa como conductor) tiene dos opciones: o bien el coche continúa y corre y mata a una familia que cruza la calle o bien se desvía, choca contra una pared y golpea a un transeúnte. ¿Cuál es la opción moral, ética? ¿Matar a dos personas (el pasajero y el espectador) o a cinco (la familia)? En el caso de un conductor humano, el dilema se resolvería a juicio del conductor. Sin embargo, en el caso de un vehículo autónomo utilizando IA, las decisiones éticas —algunas de ellas sin el derecho a una respuesta correcta o incorrecta— deben programarse con antelación. En estas situaciones, sería necesaria la regulación para reflejar la forma en la que la sociedad (Edmond, 2017) en su conjunto quiere tratar con estos dilemas éticos.

En ese sentido, e inspirado en las muy conocidas tres leyes de robótica de Asimov (Asimov, 1950), Oren Etzioni, profesor de la Universidad de Washington y director ejecutivo del Institute for Artificial Intelligence, propone tres leyes de IA (Etzioni, 2017) relacionadas con los problemas éticos que está creando esta tecnología. La primera es: “Un sistema de IA debe estar sujeto a toda la gama de leyes que se aplican a su operador humano”. La segunda es: “Un sistema de IA debe revelar claramente que no es humano”. Y la tercera es: “Un sistema de IA no puede retener o divulgar información confidencial sin la aprobación explícita de la fuente de información”.

Page 24: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

24 IESE Business School-University of Navarra

4.3.5. Sabiduría práctica

Los cuatro principios anteriores de FATE ponen el foco principal en las repercusiones externas de IA en los empleados, los clientes y la sociedad en general. Sin embargo, desde la perspectiva de la dirección general, proponemos introducir un principio añadido: de sabiduría práctica. Un concepto de la ética de la virtud (Hursthouse y Pettigrove, 2018) que se entiende como el conocimiento o la comprensión que permite a su dueño “hacer lo correcto” en cualquier situación dada.

En ese sentido, los problemas éticos también están presentes cuando se deciden los ámbitos en los que las organizaciones pueden aplicar la tecnología de IA (por ejemplo, el desarrollo de armas letales dirigidas por IA). En noviembre de 2018, el Foro Económico Mundial, en su reunión anual de los consejos de futuro global (Sutcliffe y Allgrove, 2018), declaró: “Se necesita una definición más clara de marcos éticos, estándares normativos y modelos de gobierno basados en valores para ayudar a guiar a las organizaciones en el desarrollo y uso de estas herramientas poderosas en la sociedad, y para permitir un enfoque del desarrollo centrado en el ser humano que vaya más allá de las fronteras geográficas y políticas”, es decir, ser conscientes de que el enfoque debería ser el impacto de la IA en las personas, extendiendo el concepto de derechos humanos a la esfera digital. Algo que también se refleja en el undécimo principio ASILOMAR de IA (Future of Life Institute, 2017): “Los sistemas de IA deben estar diseñados y dirigidos para ser compatibles con los ideales de la dignidad de la persona humana, los derechos, las libertades y la diversidad cultural”.

Por lo tanto, las organizaciones que utilizan la tecnología de IA en sus propuestas de valor, así como el proceso de toma de decisiones, necesitarán el nuevo rol de los sustentadores de IA (Daugherty y Wilson, 2018) para garantizar que cada uno de los sistemas de IA satisfaga su propósito de servir a los seres humanos. Sus actividades generales podrían incluir la creación de unos límites para que la IA cumpla legal y éticamente, la gestión del cumplimiento de la IA y la verificación de la calidad de salida. Los futuros roles sustentadores, como el gestor de cumplimiento de ética y el especialista en ética de automatización, también incluirán roles relacionados con el cumplimiento del requisito de los algoritmos de IA para operar dentro de las reglas morales y éticas humanas. Los seres humanos que decidan qué sistemas de inteligencia artificial deben degradarse o, por el contrario, deben promoverse —en función de su cumplimiento— desempeñarán un papel similar al de la gestión de recursos humanos. Sin embargo, en este caso se aplica a la IA.

En el contexto de la gestión, más allá de controlar los resultados del uso de la IA en una organización, el uso o no de la IA también debe guiarse por el buen criterio del director general, quien debe actuar sobre la base de lo que es correcto para todas las partes interesadas. Esto se traduce en la gestión de un sistema complejo e interconectado: la configuración institucional, el contexto interno, el entorno externo y el negocio, que constituyen las cuatro responsabilidades genuinas de la dirección general (Andreu y Ricart, 2014). Esta decisión debe informarse por parte del cometido de la organización o la razón de ser de la empresa.

Por lo tanto, proponemos ampliar los principios rectores del uso de datos y el algoritmo de diseño con la inclusión del principio de sabiduría práctica relacionado con las responsabilidades genuinas de la dirección general.

Page 25: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

IESE Business School-University of Navarra 25

5. Conclusiones

Hemos visto en este capítulo que las organizaciones no deberían considerar la IA una tecnología de forma aislada. La IA se está convirtiendo en una realidad como consecuencia de vivir en un mundo con un aumento exponencial de la densidad digital, donde hay cada vez más datos disponibles de la actividad de las empresas, las personas y los objetos. El aumento de la densidad digital es la fuerza motriz subyacente para el proceso de transformación digital que están experimentando actualmente las unidades de negocios, las organizaciones, los sectores y la sociedad en general. Esta transformación afecta a diferentes dimensiones de la organización: la plataforma tecnológica, el modelo de negocio y el modelo organizativo. Una vez que la organización cuenta con la infraestructura de TI requerida creada para gestionar la tecnología de IA (es decir, algoritmos y datos), las empresas pueden aprovechar los beneficios de la IA al utilizarla en nuevas propuestas de valor como parte de sus modelos de negocio, como una combinación de automatización, anticipación, coordinación y personalización de las interacciones. En este sentido, no solo la IA es una tecnología poderosa para fines de automatización en muchas industrias, sino que la IA también puede ponerse en marcha como una interacción de anticipación para predecir resultados o recomendar acciones en una variedad de escenarios. Además, como las propuestas de valor son a menudo el resultado de la participación de muchos agentes (empresas, personas, objetos), la inteligencia artificial puede desempeñar un papel importante como una interacción de coordinación de ecosistemas complejos y heterogéneos. Por último, la tecnología de IA como una interacción de personalización se puede utilizar para ofrecer productos y servicios asequibles y altamente personalizados.

Sin embargo, para poder integrar con éxito la tecnología de la IA en un modelo de negocio, los directores deben conocer las implicaciones de la IA en su organización en tres niveles: retos, capacidades y gobernanza. A su vez, estos retos se clasifican en cuatro categorías: privacidad, integración, fiabilidad y seguridad. En primer lugar, manejar un modelo de negocio con nuevas propuestas de valor basadas en la IA requiere abordar los problemas relacionados con la privacidad de los datos derivados de la actividad humana. En segundo lugar, las organizaciones deben establecer la propiedad de los datos utilizados para entrenar los modelos de IA, especialmente cuando la propuesta de valor requiere la participación e integración de muchos participantes. En tercer lugar, las organizaciones deben garantizar la fiabilidad de los resultados de un modelo de IA, tanto cuando se utiliza en nuevas propuestas de valor como en el proceso de toma de decisiones de la organización. Por último, las organizaciones deben abordar las preocupaciones de seguridad específicas que la IA plantea más allá de los ciberataques tradicionales.

Además, a medida que los datos se convierten en un activo crítico para crear y registrar valor, las organizaciones deben adquirir las capacidades necesarias, tanto a nivel operativo como de gestión, para integrar con éxito la IA en su modelo de negocio. Finalmente, aunque no por ello menos importante, los directores deben ser conscientes de los posibles factores externos de la IA sobre sus empleados, clientes y sociedad en general. En ese sentido, la gobernanza de la IA debe seguir los cinco principios de equidad, responsabilidad, transparencia, ética y sabiduría práctica. Solo al comprender completamente los beneficios potenciales, así como las implicaciones para la organización, la tecnología de IA cumplirá su promesa de convertirse en una tecnología de transformación positiva para las empresas, los sectores y la sociedad.

La Tabla 2 resume el impacto de la IA sobre las dimensiones del modelo de negocio y organizativo que la dirección general debe tener presente cuando gestione la IA de manera global dentro del contexto de densidad digital.

Page 26: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

26 IESE Business School-University of Navarra

Tabla 2

El impacto de la IA en el modelo de negocio y las dimensiones del modelo

organizativo

Fuente: Elaboración propia.

De la misma forma que la IA actualmente tiene más potencial como un aumento en lugar de una sustitución de la actividad humana, los directores generales deben ser conscientes de que la IA no tiene nada de artificial, ya que los valores de la máquina se derivan de los valores humanos que los diseñaron y cualquier sesgo en la entrada de los sistemas de IA comportará en un sesgo en la salida. En este sentido, los directores generales no deben considerar la tecnología de IA solo como una herramienta para ganar eficiencia en la organización. Deben comprender las consecuencias más allá del modelo de negocio, como el contexto externo e interno y la configuración institucional. Estas implicaciones requieren que los directores generales desarrollen una mentalidad digital para permitirles gestionar la IA de forma global, preparando la infraestructura de TI, y adquiriendo y desarrollando las nuevas capacidades requeridas, creando y registrando valor a través de las nuevas propuestas de valor basadas en la IA, abordando los nuevos retos específicos que la IA plantea a la organización, y poniendo en marcha una buena gobernanza de la IA basada en los principios de equidad, responsabilidad, transparencia, ética y sabiduría práctica.

AutomatizaciónHacer más con menos recursos al reducir las operaciones manuales de lastareas rutinarias.

Propuesta de valorbasadas en la IA

AnticipaciónConocer el estado del mundo físico en tiempo real mediante ladescripción, la predicción y/o las prescripción de medidas que se incluiráncomo parte de un modelo de negocio.

CoordinaciónConseguir que los diversos participantes trabajen juntos en nuevaspropuestas de valor sin las limitaciones del tamaño o la ubicación física.

Satisfacer mejor las necesidades de los clientes mediante el uso de datosque reflejen los hábitos y las preferencias de un cliente determinado.Personalización

PrivacidadEstablecer políticas transparentes sobre el uso de los datos personalespara mantener una relación de confianza con los clientes. Realización delos requisitos de cumplimiento normativo sobre datos personales.

Retos de la IAIntegración

Establecer cláusulas de datos sobre la propiedad y el derecho del uso delos datos cuando la propuesta de valor se deriva de la participación dediversos participantes.

FiabilidadComprender el impacto de la cantidad y la calidad de los datos utilizadospara preparar los algoritmos de IA, además de las limitaciones y laaplicabilidad de esos algoritmos.

SeguridadIncluir los riesgos potenciales relacionados con los ataques conflictivos enlas políticas de ciberseguridad (prevención, detención y reacción ) de laorganización.

EquidadIdentificar y eliminar el ruido previo o los sesgos ocultos en los orígenesde datos (internos y externos) que alimentan los algoritmos de IA.

Principios de la gobernanza

de la IA

ResponsabilidadProgramas de formación para que los directores asuman la responsabilidad en el uso, el uso erróneo y las acciones relacionadas con la tecnología de IA.

TransparenciaExcluir el uso de los sistemas de IA si los resultados son inaceptables odifíciles de entender.

Asegurar que todos los sistemas de IA estén diseñados y dirigidos para sercompatibles con las ideas de la dignidad de la persona humana, losderechos, las libertades y la diversidad cultural.

Ética

Sabiduría prácticaLa IA también debe guiarse por el buen criterio de la dirección general,quien debe actuar a partir de lo que es correcto para todos las partesinteresadas.

Page 27: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

IESE Business School-University of Navarra 27

Bibliografía

AGRAWAL, Ajay, GANS, Joshua y GOLDFARB, Avi. Prediction Machines: The Simple Economics of Artificial

Intelligence. Boston: Harvard Business Review Press, 2018.

ALIBABA CLOUD. “ET City Brain.” Consulta del 27 de diciembre, 2018. https://www.alibabacloud.com/et/city.

ANDERSON, Chris. The Long Tail: Why the Future of Business is Selling Less of More. Nueva York: Hyperion

Books, 2006.

ANDREU, Rafael y RICART, Joan Enric. “The Genuine Responsibilities of the CEO.” IESE Insight (cuarto

trimestre, 2014).

ANGWIN, Julia et al. “Machine Bias.” ProPublica (mayo 2016).

ASIMOV, Isaac. I Robot. Nueva York: Gnome Press, 1950.

BINDER, Alexander et al. “Layer-Wise Relevance Propagation for Deep Neural Network Architectures.”

Proceeding of Information Science and Applications (ICISA), 2016.

BOSTROM, Nick. Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press, 2014.

BUOLAMWINI, Joy y GEBRU, Timnit. “Gender Shades: Intersectional Accuracy Disparities in Commercial

Gender Classification.” Proceedings of Machine Research. Conference on Fairness, Accountability, and

Transparency, 2018.

CASADESÚS-MASANELL, Ramon y RICART, Joan Enric. “How to Design a Winning Business Model.” Harvard

Business Review (enero-febrero 2011).

DATTA, Amit, TSCHANTZ, Michael Carl y DATTA, Anupam. “Automated Experiments on Ad Privacy Setting.”

Proceedings on Privacy Enhancing Technologies, 2015.

DAUGHERTY, Paul R. y WILSON, H. James. 2018 Human + Machine: Reimagining Work in the Age of AI.

Boston: Harvard Business Review Press, 2018.

DOMINGOS, Pedro. The Master Algorithm. Londres: Allen Lane, 2015.

DOSHI-VELEZ, Finale y KORTZ, Mason. “Accountability of AI Under the Law: The Role of Explanation.”

Berkman Klein Center Working Group on Explanation and the Law, Berkman Klein Center for Internet &

Society, artículo en preparación, 2017.

DRUCKER, Peter F. Management: Tasks, Responsibilities, Practices. Nueva York: Harper & Row, 1973.

EDMOND, Awad. “Moral Machine: Perception of Moral Judgement Made by Machines,”tesis de doctorado.

MIT, mayo 2017.

ETZIONI, Oren. “How to Regulate Artificial Intelligence.” New York Times, 1 de septiembre, 2017. Consulta del

27 de diciembre, 2018. https://www.nytimes.com/2017/09/01/opinion/artificial-intelligence-regulations-

rules.html.

EYKHOLT, Kevin et al. “Robust Physical-World Attacks on Deep Learning Visual Classification.” Proceeding of

the Conference of Computer Vision and Pattern Recognition, abril 2018.

Page 28: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

28 IESE Business School-University of Navarra

FAT/ML: Fairness, Accountability, and Transparency in Machine Learning. Consulta del 27 de diciembre,

2018. https://www.fatml.org/.

FUTURE OF LIFE INSTITUTE. “Asilomar AI Principles.” 2017. Consulta del 27 de diciembre, 2018.

https://futureoflife.org/ai-principles/.

HEALTH eHEART. Consulta del 27 de diciembre, 2018. https://www.health-eheartstudy.org/study.

HURSTHOUSE, Rosalind y PETTIGROVE, Glen. “Virtue Ethics.” The Stanford Encyclopedia of Philosophy

(Edición de invierno 2018), ed. Edward N. Zalta. Consulta del 20 de enero, 2019.

https://plato.stanford.edu/archives/win2018/entries/ethics-virtue/.

IBM WATSON. “Trust and Transparency in AI.” Consulta del 27 de diciembre, 2018.

https://www.ibm.com/watson/trust-transparency/.

INTEL. “Artificial Intelligence: The Public Opportunity.” 2017.

https://blogs.intel.com/policy/files/2017/10/Intel-Artificial-Intelligence-Public-Policy-White-Paper-2017.pdf.

KÁGANER, Evgeny, ZAMORA, Javier y SIEBER, Sandra. “The Digital Mindset: 5 Skills Every Leader Needs to

Succeed in the Digital World.” IESE Insight Review, n.º 18 (tercer trimestre 2013).

KHANDANI, Amir E., KIM, Adlar J. y LO, Andrew W. “Consumer Credit Risk Models via Machine-Learning

Algorithms.” Journal of Banking & Finance, n.º 34 (2010): 2767-2787.

MALONE, Thomas. Superminds: The Surprising Power of People and Computers Thinking Together. Nueva

York: Little, Brown and Company, mayo 2018.

MICROSOFT. “FATE: Fairness, Accountability, Transparency, and Ethics in AI.” Consulta del 27 de diciembre,

2018. https://www.microsoft.com/en-us/research/group/fate/.

O’NEIL, Cathy. Weapons of Math Destruction. Nueva York: Broadway Books, 2016.

OSTERWALDER, Alexander y PIGNEUR, Yves. Business Model Generation: A Handbook for Visionaries, Game

Changers, and Challengers. Nueva Jersey: John Wiley & Sons, 2010.

PORTER, Michael E. “How Competitive Forces Shape Strategy.” Harvard Business Review (marzo 1979).

RICART, Joan Enric. “Strategy in the 21st Century: Business Models in Action.” IESE Technical Note,

SMN-685-E, 2012.

ROSS, Casey y SWETLITZ, Ike. “IBM’s Watson supercomputer recommended ‘unsafe and incorrect’ cancer

treatments, internal documents show.” STAT. 25 de julio de 2018. Consulta del 27 de diciembre, 2018.

https://www.statnews.com/2018/07/25/ibm-watson-recommended-unsafe-incorrect-treatments/.

SIEBER, Sandra y ZAMORA, Javier. “The Cybersecurity Challenge in a High Digital Density World.” The

European Business Review (enero-febrero2019).

STEADMAN, Ian. “IBM’s Watson is better at diagnosing cancer than human doctors.” Wired. 11 de febrero de

2013. Consulta del 27 de diciembre, 2018. https://www.wired.co.uk/article/ibm-watson-medical-doctor.

SUTCLIFFE, Hilary y ALLGROVE, Anne-Marie. “How do we build an ethical framework for the Fourth Industrial

Revolution?” World Economic Forum. 7 de noviembre de 2018. Consulta del 1 de diciembre, 2018.

https://www.weforum.org/agenda/2018/11/ethical-framework-fourth-industrial-revolution/.

THOMSON, Judith, J. “Killing, Letting Die, and the Trolley Problem.” Monist: An International Quarterly

Journal of General Philosophical Inquiry, vol. 59, 1976.

Page 29: Gestión de la inteligencia artificial en un contexto de ...4.1.3. Fiabilidad La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que utilizan

Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

IESE Business School-University of Navarra 29

WING, Jeannette, M. “Data for Good: FATES, Elaborated.” Data Science Institute, Columbia University, 23 de

enero, 2018. Consulta del 27 de diciembre, 2018. https://datascience.columbia.edu/FATES-Elaborated.

WRZESZCZYNSKI, Kazimierz, O. et al. “Comparing sequencing assays and human-machine analyses in

actionable genomics for glioblastoma.” Neurology Genetics (agosto 2017).

ZAMORA, Javier. “Making Better Decisions Using Big Data.” Harvard Deusto Business Review (mayo 2016),

ref. 016197-E.

ZAMORA, Javier. “Programming Business Models Through Digital Density,” IESE Insight (segundo trimestre

2017).

ZAMORA, Javier y HERRERA P. “How prepared is your business to make the most of AI?” IESE Business School

Insight, N.º 151, (invierno 2018).

ZAMORA, Javier, TATARINOV, Katherine y SIEBER, Sandra. “The Centrifugal and Centripetal Forces Affecting

the Digital Transformation of Industries.” Harvard Deusto Business Review, n.º 279 (junio 2018), ref. 018189.