Sunteți pe pagina 1din 4

UNIVERSIDAD NACIONAL DE COLOMBIA, HUMANOS Y MAQUINAS INTELIGENTES 1

Resumen No. 11: White Paper on Artificial


Intelligence A European approach to excellence and
trust,How do we learn to work with intelligent
machines?, How we can protect truth in the age of
misinformation, How AI can bring on a second
Industrial Revolution
Diego Arturo Narváez Puentes
danarvaezp@unal.edu.co
Humanos y maquinas inteligentes

I. W HITE PAPER ON A RTIFICIAL I NTELLIGENCE A examinar si la legislación actual es capaz de abordar los
E UROPEAN APPROACH TO EXCELLENCE AND TRUST riesgos de la IA y si se puede hacer cumplir efectivamente,
ya sea que se necesitan adaptaciones de la legislación, o si se
I-A. Un ecosistema de confianza: marco regulatorio para la necesita una nueva legislación.
IA

Al igual que con cualquier tecnologı́a nueva, el uso de Los Estados miembros señalan la ausencia actual de un
IA trae oportunidades , riesgos y preocupaciones. Estas marco europeo común. La Comisión de ética de datos de
preocupaciones deben ser abordadas. Además, además de Alemania ha pedido un sistema de regulación basado en el
la falta de inversión y habilidades, la falta de confianza es riesgo de cinco niveles que irı́a desde no hay regulación para
un factor principal que frena una utilización más amplia los sistemas de IA más inocuos a una prohibición completa
de IA. Es por eso por lo que la Comisión estableció una para los más peligrosos. Dinamarca acaba de lanzar el pro-
estrategia de IA que aborda los temas socioeconómicos en totipo de un Sello de ética de datos. Malta ha introducido
paralelo con un aumento de la inversión en investigación, un sistema de certificación voluntario para IA. Un marco
innovación y capacidad de inteligencia artificial en todo la regulatorio europeo sólido para una IA confiable protegerá a
UE. La Comisión también estableció un Grupo de expertos todos los ciudadanos europeos y ayudará a crear un mercado
de alto nivel que publicó Directrices sobre IA confiable . interno sin fricciones para el desarrollo y la absorción de la
IA, ası́ como el fortalecimiento de la base industrial europea
en IA.
La Comisión publicó un comunicado que acoge los
siete requisitos clave identificados en Las Directrices del
Grupo de Expertos de Alto Nivel los cuales son: Agencia I-B. Dfinición del problema
humana y supervisión, Robustez técnica y seguridad,
Privacidad y gobierno de datos, transparencia, Diversidad, Si bien la IA puede hacer mucho bien, incluso al hacer
no discriminación y equidad, Bienestar social y ambiental, que los productos y procesos sean más seguros, también
Responsabilidad. puede hacer daño. Este daño puede ser tanto material como
inmaterial y puede relacionarse con una amplia variedad de
riesgos. Un marco regulatorio debe concentrarse en cómo
Además de este conjunto de Directrices no vinculantes del
minimizar los diversos riesgos de daño potencial, en particular
Grupo de Expertos de Alto Nivel, y en lı́nea con el Directrices
los más significativos.
polı́ticas del presidente, un claro marco regulatorio europeo
generarı́a confianza entre consumidores y empresas en IA,
y por lo tanto aceleran la adopción de la tecnologı́a. Tal Riesgos para los derechos fundamentales, incluyendo
marco regulatorio debe ser coherente con otras acciones para datos personales y protección de privacidad y la no
promover la capacidad de innovación y competir de Europa en discriminación: Estos riesgos pueden resultar por fallas
este campo. Además, debe garantizar resultados económica, en el diseño general de los sistemas de IA (incluso en
social y ambientalmente óptimos y el cumplimiento de la lo que respecta a la supervisión humana) o por el uso
legislación, los principios y valores de la UE. Es necesario de datos sin corregir posibles sesgos (p. ej., el sistema se
2 UNIVERSIDAD NACIONAL DE COLOMBIA, HUMANOS Y MAQUINAS INTELIGENTES

entrena utilizando solo o principalmente datos de hombres I-C. Posibles disposiciones al marco legislativo existente de
que conduce a resultados subóptimos en relación con las la UE relacionado con la IA
mujeres).
La IA puede realizar muchas funciones que anteriormente Un amplio cuerpo de legislación vigente sobre seguridad
solo podı́an ser realizadas por humanos. Como resultado, y responsabilidad de los productos de la UE , que incluye
los ciudadanos y las entidades legales estarán cada vez normas especı́ficas, complementadas además por la legislación
más sujetas a acciones y decisiones tomadas por o con la nacional, son relevantes y potencialmente aplicables a un
asistencia de los sistemas de IA, que a veces pueden ser número de aplicaciones emergentes de IA.
difı́ciles de entender y desafiar de manera efectiva dónde En cuanto a la protección de los derechos fundamentales y
es necesario. Además, la IA aumenta las posibilidades de los derechos del consumidor, el marco legislativo de la UE
rastrear y analizar los hábitos diarios de las personas. Al incluye legislación como la Directiva de igualdad racial, la
analizar grandes cantidades de datos e identificar enlaces Directiva sobre igualdad de trato en empleo y ocupación, las
entre ellos, la IA también pueden ser utilizados para rastrear Directivas sobre igualdad de trato entre hombres y mujeres
y anonimizar datos sobre personas, creando nuevos riesgos en relación con el empleo y el acceso a bienes y servicios,
de protección de datos personales . Las IA también es una serie de normas de protección al consumidor, ası́ como
utilizado por intermediarios para priorizar información para normas sobre protección de datos personales y privacidad,
sus usuarios y realizar moderación de contenido. en particular el Reglamento general de protección de datos
El sesgo y la discriminación son riesgos inherentes a cualquier y otra legislación sectorial que cubre la protección de datos
actividad social o económica. El ser humano no es inmune a personales, como la Ley de Protección de Datos Directiva
errores y prejuicios. Sin embargo, el mismo sesgo cuando está de ejecución. Si bien la legislación de la UE sigue siendo
presente en la IA podrı́a tener un efecto mucho mayor, que en principio plenamente aplicable independientemente de la
afecta y discrimina a muchas personas sin los mecanismos participación de la IA, Es importante evaluar si se puede hacer
de control social que rigen el comportamiento humano .Las cumplir adecuadamente para abordar los riesgos que crean
caracterı́sticas especı́ficas de muchas tecnologı́as de IA, los sistemas de IA, o si se necesitan ajustes a instrumentos
incluida la opacidad (’efecto de caja negra’),La complejidad, legales especı́ficos.
la imprevisibilidad y el comportamiento parcialmente
autónomo pueden dificultar la verificación y el cumplimiento La Comisión considera que el marco legislativo podrı́a
y puede obstaculizar la aplicación efectiva de las normas mejorarse para abordar los siguientes riesgos y situaciones:
de la legislación vigente de la UE destinadas a proteger los
derechos fundamentales. Aplicación efectiva y cumplimiento de la legislación
nacional y de la UE existente : para garantizar una
aplicación y ejecución efectiva de las normas, puede
Riesgos para la seguridad y el funcionamiento efectivo ser necesario ajustar o aclarar la legislación existente en
del régimen de responsabilidad: Las tecnologı́as de IA ciertas áreas.
pueden presentar nuevos riesgos de seguridad para los usuarios Limitaciones del alcance de la legislación vigente de la
cuando están integrados en productos y servicios. Al igual que UE : La legislación general de seguridad actual de la
con los riesgos para los derechos fundamentales, estos riesgos UE, se aplica a productos y no a servicios, por lo tanto,
pueden ser causados por fallas en el diseño de la tecnologı́a, en principio, no a servicios basados en tecnologı́a de
estar relacionada con problemas con la disponibilidad y cali- IA tampoco (por ejemplo, servicios de salud, servicios
dad de los datos u otros problemas derivados del aprendizaje financieros, servicios de transporte).
automático. Funcionalidad cambiante de los sistemas de IA : la
La falta de disposiciones de seguridad claras que aborden estos integración de software, incluida la IA, en los productos
riesgos puede, además de los riesgos para las personas, crear puede modificar el funcionamiento de dichos productos
incertidumbre legal para las empresas que comercializan sus y sistemas durante su ciclo de vida. Estos riesgos no
productos que involucran IA . Las autoridades de vigilancia se abordan adecuadamente en la legislación vigente que
del mercado y de cumplimiento pueden encontrarse en una se centra en los riesgos de seguridad presentes en el
situación en la que no tienen claro si pueden intervenir, momento de la comercialización.
porque pueden no estar facultados para actuar o no tienen las Incertidumbre con respecto a la asignación de respon-
capacidades técnicas apropiadas para inspeccionar sistemas .Si sabilidades entre los diferentes operadores económicos
se materializan los riesgos de seguridad, la falta de requisitos en la cadena de suministro : en general, la legislación
claros y las caracterı́sticas de las tecnologı́as de IA mencio- de la UE sobre seguridad de los productos asigna la
nado anteriormente hace que sea difı́cil rastrear decisiones responsabilidad del producto comercializado al produc-
potencialmente problemáticas tomadas con la participación de tor, incluidos todos los componentes, por ejemplo, los
los sistemas de IA. sistemas de IA. Pero las reglas pueden no ser claras si
se agrega IA después de que el producto se coloca en el
mercado por una parte que no sea el productor.
Cambios en el concepto de seguridad : el uso de IA en
productos y servicios puede generar riesgos que la legis-
HUMANOS Y MAQUINAS INTELIGENTES 3

lación de la UE actualmente no aborda explı́citamente. aprende como las demás personas lo hacen, ya sea al observar
Estos riesgos pueden estar presentes en el momento de un experto, involucrarse en una parte sencilla para después
colocar productos en el mercado o surgir como resultado enfocarse en las partes complicadas para poder hacerlo de
de actualizaciones de software o autoaprendizaje cuando manera autónoma, lo que se conoce como “ver uno, hacer
se usa el producto. uno, enseñar uno”. Menciona que actualmente se está usando
la IA, pero está bloqueando nuestro aprendizaje en pro de la
eficiencia.
I-D. Alcance de un futuro marco regulatorio de la UE

Una cuestión clave para el futuro marco regulatorio Después retoma la historia de la cirugı́a, pero con un robot
especı́fico sobre inteligencia artificial es determinar el alcance involucrado, donde la IA realiza la operación de manera más
de su aplicación. La hipótesis de trabajo es que el marco segura y rápida que las personas y estas ya no tendrán la
regulatorio se aplicarı́a a los productos y servicios basados en oportunidad de practicar y aprender a hacer la cirugı́a. Esto
IA. En cualquier nuevo instrumento legal, la definición de IA se ha repetido por diversos hospitales de EE. UU. Ahora la
deberá ser lo suficientemente flexible como para acomodar parte de ”Ver uno”se habı́a aumentado y ya no habı́a ”hacer
progreso técnico a la vez que es lo suficientemente preciso uno”.
como para proporcionar la seguridad jurı́dica necesaria.
La UE tiene un marco legal estricto para garantizar, entre
otras cosas, la protección del consumidor, para abordar Al usar y depender tanto de las nuevas tecnologı́as en
prácticas comerciales y para proteger los datos personales varios campos de aplicación se está haciendo más difı́cil
y la privacidad. Además, el acervo contiene información los trabajos y el aprendizaje de algunas personas ya que
especı́fica, reglas para ciertos sectores (por ejemplo, salud, las IA dejaban la vara muy alta no habrı́a campo para el
transporte). Estas disposiciones vigentes de la legislación de aprendizaje de las personas. Además, se está bloqueando
la UE continuarán aplicándose en relación con la IA, aunque el acceso a la educación cuando más se necesita. Ya no se
ciertas actualizaciones a ese marco pueden ser necesarias aprende en el cirujano sino en simuladores y con herramientas
para reflejar la transformación digital y uso de IA . digitales. Esto es llamado .aprendizaje sombra”. Ya no existe
Como cuestión de principio, el nuevo marco regulatorio para la posibilidad de cometer errores.
la IA deberı́a ser efectivo para lograr sus objetivos sin ser
excesivamente prescriptivos para que pueda crear una carga El autor cierra la conferencia hablando de como es necesario
desproporcionada, especialmente para pymes. Para alcanzar que la implementación de la IA debe ir ligada directamente
este equilibrio, la Comisión opina que deberı́a seguir un con los expertos en cada materia que se trata, esto podrı́a
enfoque basado en el riesgo. Esto es importante para ayudar hacer que la educación mejore en un futuro, y generar algo
a garantizar que la intervención reguladora sea proporcional. mas utópico en un futuro donde no se necesite de un tutor para
Sin embargo, requiere criterios claros para diferenciar entre cada aprendiz. Por último, dice que hay una gran importancia
las diferentes aplicaciones de IA, en particular en relación en aprovechar lo mas que se pueda las IA pero sin que estas
con la pregunta de si son o no de .alto riesgo”. bloqueen el acceso a la educación y el aprendizaje.

Una aplicación de IA debe considerarse de alto riesgo III. H OW WE CAN PROTECT TRUTH IN THE AGE OF
cuando se encuentra los siguientes dos criterios acumulativos: MISINFORMATION
1. La aplicación de IA se emplea en un sector donde, dadas
El video inicia dando un ejemplo de una noticia falsa o fake
las caracterı́sticas de las actividades tı́picamente empren-
New publicada por la Associated Press en la cual decı́a que el
didas, se puede esperar que ocurran riesgos significativos.
presidente Obama habı́a resultado herido, esto era una táctica
2. La aplicación de IA en el sector en cuestión, además,
para el desplome económico de ciertos sectores a raı́z de esta
se usa de tal manera que es probable que surjan riesgos
noticia, también se sabe del alto uso de este tipo de noticias
significativos.
en época de elecciones democráticas, y varias situaciones
No obstante, también puede haber casos excepcionales en más. Después se habla del estudió que hizo sobre este tema,
los que, debido a los riesgos en juego, el uso de aplicaciones en Twitter se estudiaron desde el año 2006 hasta el 2017 y
de IA para ciertos fines debe considerarse de alto riesgo se concluye que una notica falsa tiene el potencial de tener
como tal, es decir, independientemente del sector en cuestión más impacto, más alcance y ser de más rápida distribución
y de dónde se seguirı́an aplicando los siguientes requisitos. que una noticia legitima, mas aun si el tema es polı́tico. Pero
también se observo como las “personas” de divulgaban estas
noticias tenı́an menos seguidores, seguı́an menos gente y
eran recientes en la plataforma. A este fenómeno se le quiso
II. H OW DO WE LEARN TO WORK WITH INTELLIGENT
estudiar bajo un enfoque sociológico con una hipótesis de la
MACHINES ?
novedad, que dice que las personas se sienten más atraı́das
El autor inicia con una anécdota de una operación de por la novedad, lo cual es algo que se encuentra en las fake
próstata, de como una persona se involucra en la cirugı́a y news y además generan sorpresa y disgusto, mientras que las
4 UNIVERSIDAD NACIONAL DE COLOMBIA, HUMANOS Y MAQUINAS INTELIGENTES

noticias reales generan más expectativa, alegrı́a y confianza, un aspecto aritmético, un GPS en el aspecto espacial. Un
este problema de las fake news se puede dar gracias a IA pero automóvil automático combina caracterı́sticas de ambos lados
estos no son responsables, mientras que las personas si lo son. y es un buen ejemplo de como se puede combinar un humano
y una máquina.
Hay otras tecnologı́as, que van a ocacionar que la situación
empeore, los videos y audios falsos que se ven muy reales, Después habla de un segundo aspecto el cual es que la
aquı́ es donde salen a relucir las IA, un modelo de ML con IA ayudara a crear una segunda revolución industrial, donde
dos redes: un discriminador (para ver si algo es falso o no) actualmente el progreso se basa en el uso de la electricidad y
y un generador (para crear medios sintéticos). Ası́, funcionan la tecnologı́a, además, al introducir las IA, se tiene entonces
como una máquina con retroalimentación que perfecciona más un proceso no solo de electrificación sino de cognición de las
y más para engañar. La segunda tecnologı́a, es esencialmente máquinas. Los autos (ahora autónomos) aparte de tener 250
la democratización de la IA, cualquier persona ası́ no tenga caballos de fuerza, pueden tener 250 cerebros, lo cual muestra
experiencia, puede implementar estos algoritmos. el desarrollo que se le ha dado a esta tecnologı́a gracias a la
IA.
Como tercer aspecto es la humanización de las IA, ósea poner
El autor propone algunas posibilidades para tratar estos
un cuerpo a las IA existentes y crear los llamados robots, por
problemas, por ejemplo, el etiquetado de información, pero
tanto, se deben definir trabajos y tareas, ya que se crearán
este tiene un problema y es la responsabilidad de quien dirá
nuevas cosas que todavı́a si quiera se ha pensado, y las tareas
si algo es verı́dico o falso, otro ejemplo son los incentivos ya
se definirán para los robots y deben ser medidas en cuestiones
sean polı́ticos, económicos, sociales. . . etc. En tercer lugar, está
de eficiencia y productividad. Se debe trabajar a la mano con
la regulación y en cuarto lugar es la transparencia para que se
las nuevas tecnologı́as y no contra estas. Por último, se dice
sepa el funcionamiento de los algoritmos que componen una
que hasta ahora se esta iniciando con el campo de la IA, y
IA y ası́ lograr un mejor entendimiento y mayor aceptación de
que el futuro que se espera es inmenso.
estas tecnologı́as. Por último, se mencionan los algoritmos de
aprendizaje automático para entender y eliminar las noticias
falsas, ası́ como su transmisión y difusión. V. C ONCLUSIONES Y COMENTARIOS
Por último, se hace énfasis en que el responsable de las
Fake News siempre va a ser el ser humano y que este debe El papel de las personas en las fake news es más
estar vigilante para defender la verdad, con tecnologı́a, con importante que el de la IA, por eso es necesario enseñar
polı́tica y con nuestras propias responsabilidades, decisiones, y capacitar a las personas para que aprendan a detectar
comportamientos y acciones. y evitar la propagación de fake news, ya que en ultimas,
las personas son las que hacen que una noticia falsa sea
viralizada por el simple hecho de creer en algo que vio
IV. H OW AI CAN BRING ON A SECOND I NDUSTRIAL en una red social.
R EVOLUTION Cualquier legislación o conjunto de leyes que enmarque
el uso de las IA debe velar por el cumplimiento de los
El conferencista inicia hablando de la tecnologı́a actual y derechos fundamentales y debe prever los riesgos asocia-
sus tendencias, estas pueden crear patrones que tienen cosas dos a estas nuevas tecnologı́as, ya que esto es un deber
en común, como, por ejemplo, la gravedad y la lluvia, y de cada paı́s, el velar por los derechos de sus ciudadanos
como el agua a pesar de ser diversa siempre se dirige hacia pero a su vez el correcto uso de las nuevas tecnologı́as
abajo a causa de la gravedad. Estas tendencias permiten que para que exista un verdadero desarrollo tecnológico.
se hagan predicciones del rumbo de la tecnologı́a, ahora se El papel de la ética es muy importante para el desarrollo
intenta que las maquinas se hagan mas y mas inteligentes, y de IA y para la toma de decisiones tanto humana como
esto se muestra con la tecnologı́a y las aplicaciones que hay de las máquinas. Preguntarse cuestiones filosóficas es ne-
actualmente. cesario para poder realizar las actividades que involucren
Después habla de 3 aspectos que se deben tener en cuenta tecnologı́a, a cualquier nivel.
para entender las tendencias y poder controlar su desarrollo
para mejorar las IA.
R EFERENCIAS
En primer lugar, se menciona el no entender completamente [1] ”White Paper on Artificial Intelligence A European approach to
excellence and trust”, ec.europa.eu, 2020. [Online]. Available:
la inteligencia, se cree que se puede medir solo con algo https://ec.europa.eu/info/sites/info/files/commission-white-paper-
como el coeficiente intelectual, pero es algo más diverso y artificial-intelligence-feb2020-en.pdf. [Accessed:01 June- 2020].
compuesto por diversas clases de razonamiento agrupadas
[2] M. Beane, How do we learn to work with intelligent machines? 2018.
que varı́an entre las personas. Esto pasa similar en los
animales, incluso algunos pueden tener algún aspecto mejor [3] S. Aral, How we can protect truth in the age of misinformation 2018.
que los humanos. Las máquinas se crean para tener alguno [4] K. Kelly, How AI can bring on a second Industrial Revolution 2016.
de estos aspectos más altos de una forma más especı́fica,
por ejemplo, las calculadoras ya son más inteligentes en

S-ar putea să vă placă și