Descripción de la inteligencia artificial responsable
En Microsoft, el desarrollo de software de inteligencia artificial se guía por un conjunto de seis principios diseñados para garantizar que las aplicaciones de inteligencia artificial ofrezcan soluciones sorprendentes a problemas difíciles sin consecuencias negativas no deseadas.
Imparcialidad
Los sistemas de IA deberían tratar a todas las personas de manera equitativa. Por ejemplo, imagine que crea un modelo de Machine Learning para admitir una solicitud de aprobación de préstamo para un banco. El modelo debe predecir si el préstamo se debe aprobar o denegar sin sesgo. Este sesgo podría estar basado en el sexo, la etnia u otros factores que den lugar a una ventaja o desventaja injusta a determinados grupos de solicitantes.
Azure Machine Learning incluye la capacidad de interpretar modelos y cuantificar en qué medida cada característica de los datos influye en la predicción del modelo. Esta capacidad ayuda a los científicos y desarrolladores de datos a identificar y mitigar sesgos en el modelo.
Otro ejemplo es la implementación de Microsoft de Inteligencia artificial responsable con el servicio Face, que retira las funcionalidades de reconocimiento facial que se pueden usar para intentar deducir los estados emocionales y los atributos de identidad. Estas funcionalidades, si se usan incorrectamente, pueden someter a personas a estereotipos, discriminación o denegación de servicio injusta.
Confiabilidad y seguridad
Los sistemas de inteligencia artificial deben funcionar de manera confiable y segura. Por ejemplo, considere un sistema de software basado en IA para un vehículo autónomo; o bien, un modelo de Machine Learning que diagnostica los síntomas del paciente y recomienda recetas. La falta de confiabilidad en este tipo de sistemas puede resultar en un riesgo sustancial para la vida humana.
El desarrollo de aplicaciones de software basadas en inteligencia artificial debe someterse a rigurosos procesos de prueba y administración de implementaciones para garantizar que funcionen de la forma esperada antes de su lanzamiento.
Privacidad y seguridad
Los sistemas de inteligencia artificial deben ser seguros y respetar la privacidad. Los modelos de Machine Learning en los que se basan los sistemas de inteligencia artificial dependen de grandes volúmenes de datos, que pueden contener datos personales que deben mantenerse privados. Incluso después de entrenar los modelos y estar el sistema en producción, es necesario tener en cuenta la privacidad y la seguridad. A medida que el sistema usa nuevos datos para realizar predicciones o tomar medidas, tanto los datos como las decisiones tomadas a partir de los datos pueden estar sujetos a problemas de privacidad o seguridad.
Inclusión
Los sistemas de inteligencia artificial deben empoderar a todos e involucrar a las personas. La inteligencia artificial debería aportar beneficios a todos los sectores de la sociedad, independientemente de su capacidad física, género, orientación sexual, origen étnico u otros factores.
Transparencia
Los sistemas de inteligencia artificial deben ser comprensibles. Los usuarios deben ser plenamente conscientes del propósito del sistema, su funcionamiento y las limitaciones que se pueden esperar.
Responsabilidad
Las personas deberían ser responsables de los sistemas de inteligencia artificial. Los diseñadores y desarrolladores de soluciones basadas en IA deben trabajar dentro de un marco de principios organizacionales y de gobernanza que garanticen que la solución cumpla con los estándares éticos y legales que están claramente definidos.
Los principios de la inteligencia artificial responsable pueden ayudarle a entender algunos de los desafíos a los que se enfrentan los desarrolladores a medida que intentan crear soluciones éticas de inteligencia artificial.