Buscar
Opinión

Lectura 14:00 min

Inteligencia artificial: contexto y ética (3 de 3)

main image

Adolfo Cuevas Teja

En una serie de tres artículos abordaré el tema de la inteligencia artificial, en cuanto a sus bases generales, estado actual y prospectiva y, particularmente, algunas ideas sobre sus implicaciones éticas.

Aquí la liga al primer artículo. Acá, la del segundo artículo.

III. Ética, regulación e instituciones

¿Por qué la Ética en la inteligencia artificial (IA)? La razón es que la IA está permeando múltiples actividades humanas, en áreas de interés público, por lo que hay una imperiosa necesidad de asegurar que su utilización sea acorde con los valores de la sociedad.

Naturaleza y alcance de la Ética. La Ética, del griego “ethos” (carácter, en el sentido de la forma de ser que deviene de hábitos), está referida a un conjunto de valores reconocidos socialmente, cuya inobservancia da lugar solo a desaprobación. En contraste, el Derecho es un sistema formal de reglas cuyo quebrantamiento puede dar lugar a un cumplimiento forzoso o a una sanción.

Es significativo lo anterior porque, evidentemente, al irrumpir la IA en más actividades humanas, es deseable que lo axiológico no se quede en una apelación al recto proceder, sino que, cuando esté de por medio el interés público, exista efectivamente un sistema de normas que la regulen.

Éticas. Considérese que los valores expresados en una ética particular no son absolutos ni eternos. Nuestros valores, esto es, nuestras creencias, son un producto histórico: cambian a través del tiempo, si bien hay principios durables, como el respeto a la vida, cuya pertinencia, por otra parte, es del todo evidente.

Además, en una misma época, diferentes culturas, naciones, o grupos sociales dentro de éstas, poseen marcos éticos distintos en grado apreciable, divergentes en cuestiones relevantes, como temas de género, diversidad sexual, libertad de expresión, etcétera.

Que no hay una sola ética sino varias en el mundo y que ninguna debe pretender ser superior es algo primordial en el tema de IA, por cuanto su desarrollo se centra en el llamado Occidente y de forma preponderante en los Estados Unidos de América.

En tal sentido, cabe alertar contra una visión unilateral de la Ética en la IA que, por su difusión a través de tecnologías ampliamente empleadas, aspirara a ser el estándar. La diversidad humana y la multiculturalidad del mundo deben ser respetadas por la IA, aquilatando los valores de distintos conglomerados humanos, a nivel global y dentro de cada país.

Tautología de éticas particulares. Sin demeritar, en modo alguno, la relevancia de los análisis sobre la ética en la IA, en mi opinión es palmario que cualquier obrar humano con impacto en terceros debe, obligadamente, ajustarse a los valores sociales del sitio donde suceda y la ética correspondiente serle naturalmente aplicable, por novedosa que fuera la actividad.

Dicho de otra manera, no hay, en mi concepto, una ética de la IA en sí y estrictamente, sino que los valores subyacentes a la ética de la IA tienen que ser los de la sociedad de que se trate, a ser observados también por la IA. O sea, si la IA pretende reemplazar a seres humanos, se esperaría que se comportara como lo deberían hacer las personas. Esto en lo central, aunque hay aspectos instrumentales cardinales acerca de cómo hacer que la IA respete la Ética.

La UNESCO. En este orden de ideas, la “Recomendación sobre la Ética de la Inteligencia Artificial” de la UNESCO (2021) cumple, por un lado, un fin sustantivo al llamar la atención y pedir acción de gobiernos y empresas sobre las consecuencias de la adopción de la IA; aunque, por otro, inevitablemente adolece de generalidad y reiteración cuando aborda los valores y principios de la IA, entre los que incluye el respeto a derechos humanos, protección del medio ambiente, diversidad e inclusión, paz y justicia, privacidad, sostenibilidad, etcétera. No podría ser de otra manera. Esos valores debe secundarlos la IA tanto como, mutatis mutandi, cualquiera otra industria o tecnología, sean las TIC en general, la energética, la ingeniería genética y demás.

Instrumentos de la Ética en la IA. Entre los valores y principios que para la IA se han expresado y que, según he dicho, resultan mayormente reiterativos, resalto un par, de tipo instrumental:

  • Transparencia de la IA. Donde incluyo las nociones relacionadas de explicabilidad e interpretabilidad de la IA. Discurren, en resumen, sobre dos propósitos: uno descriptivo, que las aplicaciones de la IA puedan explicar cómo llegaron al resultado, solución o decisión de que se trate; el otro justificativo, que la información suministrada, su procesamiento y los parámetros considerados para éste sean técnicamente correctos y éticamente apropiados. Lo anterior responde a dos situaciones. El derecho de saber, de que quienes usen la IA reciban una explicación acerca de cómo opera y su fiabilidad. Además, el problema de la “caja negra”, común en muchos campos, consistente en que el proceso por el que se llega a un resultado es desconocido, lo que nubla la confiabilidad de aquél. Sorprendentemente, en IA hay varios ejemplos en los que los desarrolladores reconocen que no saben de manera precisa cómo es que la IA que crearon produce sus resultados.  
  • Responsabilidad de la IA. Busca que siempre haya una persona física o moral (corporación) responsable de las consecuencias del uso de la IA y evitar que pretenda imputarse tal responsabilidad a la propia IA, intentando eludirla sus creadores o quienes brindan servicios a través de ella, bajo el argumento de que las capacidades creativas, cognitivas o racionales de la IA la equiparan a una persona, dotándola de una pretendida autonomía que la haría responsable. Esto no es nuevo. En el Derecho hay una añeja teoría sobre la responsabilidad objetiva, aplicable, por ejemplo, a los daños que puedan resultar del uso de maquinaria o sustancias peligrosas. Quien las utiliza es responsable y debe responder por el mero hecho de haberse causado afectación, sin importar particularidades como la existencia o no de dolo, culpa o negligencia. El tema de la responsabilidad de la IA es de interés ante las pretensiones de reconocerle personalidad, como sucedió con la robot Sophie, antropomorfa, a la que incluso se le extendió un pasaporte. El problema es que, si a una aplicación o máquina la reconocemos como persona, la hacemos sujeto de derechos y, especialmente, obligaciones que alguien más rehuiría. Se comprende la tentación, ante las muestras de raciocinio y creatividad de la IA que, por asombrosas que sean, abarcan solo una parte de nuestra naturaleza humana. Por ello y porque, según se ha explicado, ninguna IA estrecha actual o las probables IA generales del futuro se asemejarán al ser humano integral, debe evitarse el señuelo de transferir la responsabilidad a la IA. Mucho menos por el truco (descarado) del antropomorfismo, como el de Sophie, cuyo desempeño sería el mismo, aunque le hubieran dado la apariencia de una vaca, de un pingüino, o de un árbol.

Sesgos y la IA políticamente correcta. Un tema colateral, anecdótico, que quiero abordar es el muy conocido acerca del resultado que arroja el buscador de Google cuando se le piden imágenes de “persona exitosa”. La historia surgió porque, se decía, Google mostraba casi exclusivamente varones y casi todos de piel clara. La crítica era que reproducía estereotipos.

Cuando para este artículo hice en español la búsqueda de “gente exitosa”, las primeras 6 líneas mostraron 42 varones, 36 de piel clara, 3 de piel morena u obscura y 3 no distinguibles; además, 27 mujeres, 22 de piel clara y 5 de piel morena u obscura. Casi todos con apariencia de gente de negocios.

Cuando la hice en inglés, “successful people” reveló en las primeras 6 líneas 48, hombres, 23 de piel clara y 13 de piel morena u obscura y el resto no distinguibles; además, 24 mujeres, 17 de piel clara y 7 morena u obscura. Incluso, se observa variedad de orígenes étnicos, que incluye asiáticos y latinos. Igualmente, de traza empresarial.

Al parecer estos resultados son más diversos que los de hace tiempo, cuando fue noticia el llamado sesgo de Google. ¿Pero el algoritmo de Google sesgaba, o simplemente confirmaba sesgos de nuestras sociedades? ¿Es mejor un Google políticamente correcto?

Porque llama la atención que los resultados de la búsqueda no correspondan a las proporciones conocidas de mujeres y minorías en, por ejemplo, puestos directivos de empresas o en el decil superior de ingreso en los Estados Unidos de América. Parece, en todo caso, que cuando preguntamos en español Google es un tanto más “sincero”. No del todo, porque sobrerrepresenta a la mujer respecto de una realidad menos afortunada.

El ajuste del algoritmo para que muestre resultados divergentes de la percepción ordinaria o la estadística conocida de distribución de ingreso o posiciones directivas, en aras de no juzgarse sesgado, da una apariencia de mayor equidad en sociedades profundamente desiguales y ayuda a enmascarar y mantener un status quo de injusticia.

Que el éxito se entienda como riqueza es asunto aparte.

Conflictos éticos, el caso de las empresas. Aunque en sentido estricto no sea exigible, nos interesa que la Ética se cumpla, así sea que no haya una sanción sensible para el infractor. Cuando la Ética se transgrede no es forzosamente porque la persona o entidad en cuestión carezca de ella, sino porque hay otros intereses o valores en conflicto. Como dice el Teniente Coronel Frank Slade (Al Pacino) en Perfume de Mujer: “Siempre supe cuál era el camino correcto… pero era condenadamente difícil”.

En el ámbito empresarial la Ética tiene un constante roce con el principio y objetivo utilitario de lucro. La búsqueda de ganancia por compañías ejerce presión sobre los límites permitidos por sus códigos éticos que, por otra parte, como hemos explicado, no acarrean consecuencia por su infracción.

De aquí que no resulte conveniente dejar las cuestiones de interés público a la ética de las empresas, particularmente si las que desarrollan la IA son muy poderosas. Es sabido y común que los límites de la ley y regulación emanadas de congresos y autoridades son constantemente desafiados, empujados, por las compañías en búsqueda legítima de lucro.

Además de la Ética. La Ética tiene un papel fundamental en las sociedades, las nociones del bien y del mal, el sentido de justicia que aquélla encausa y brinda son la guía y aspiración de todo colectivo humano. No obstante, su no coercibilidad y la generalidad de sus planteamientos dejan sin resolver aspectos torales de la convivencia humana. Aquí entra en escena el Derecho.

La Ética informa al Derecho acerca del deber ser y éste se ocupa de darle contenido preciso para favorecer su realización o sancionar su transgresión. La Ética toma la forma de grandes postulados; el Derecho se conforma en cuestiones puntuales, mundanas y no siempre agradables o lucidoras.

Regulación. La generalidad de los planteamientos éticos es una característica que comparte en cierta medida el Derecho, al menos en el nivel de las normas de jerarquía superior, como la Constitución y las leyes del Congreso.

Dicha amplitud suscita problemas por la posible ambigüedad de las normas éticas y legales y su consecuente aplicación a casos concretos que, de un lado pudieran parecer no encajar claramente en las disposiciones generales o, de otro, sean novedosos: los “casos difíciles” de Dworkin, que tienen su antecedente en los “casibus perplexis” de Leibniz.

Ello es particularmente relevante en tratándose de la IA y las numerosas particularidades y novísimas situaciones que habrá de desplegar, frente a lo cual las reglas genéricas de la Ética, e incluso de leyes de nivel superior, resultarán frecuentemente insuficientes.

De ahí surge la necesidad de una regulación que desarrolle las directrices éticas y legales dadas a la IA.

Marco institucional de la IA. Consecuentemente, es patente que la asunción y realización de valores en la IA, emanados de la Ética, deben ser incorporados y desarrollados en una legislación y regulación que los haga exigibles, eficaces.

A su vez, dada la acelerada dinámica de cambio tecnológico que caracteriza a las TIC y con ellas a la IA, se requieren órganos especializados de autoridad que respondan oportuna y certeramente a tales retos.

Regulación en Europa. Ilustra lo anterior el relevante desarrollo normativo acaecido en Europa que, además de pronunciamientos latos de corte ético, como las Directrices Éticas para una IA Confiable (2019), avanza ahora en la construcción de verdadera legislación, con la Propuesta de Reglamento por el que se establecen Normas Armonizadas en Materia de Inteligencia Artificial (2023).

La propuesta establece obligaciones puntuales. Entre su vasto contenido, destaca que identifica “sistemas de IA de alto riesgo” que pudieran afectar la salud o seguridad, donde incluye medios de transporte o elevadores; prohíbe la IA en vigilancia biométrica, reconocimiento de emociones (estados de ánimo) o para sistemas de política predictiva que generen perfiles por registros de comportamiento ilícito pasado u otros que puedan prejuiciar; o exige que el contenido generado por IA creativa (v.g. Chat GPT) sea identificado como tal. Además, por supuesto, prevé sanciones en caso de incumplimiento.

También la Ley 15/2022 para la Igualdad de Trato y la no Discriminación, de España, cuyo Artículo 23 intitulado “Inteligencia Artificial y mecanismos de toma de decisión automatizados” exige que estas herramientas cuenten con “criterios de minimización de sesgos, transparencia y rendición de cuentas”.

Asimismo, España fue pionera al crear en 2022 la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA).

Necesariamente, para que la ética de las sociedades se cumpla en la IA, debe adelantarse en la construcción de marcos institucionales, que superen las limitaciones de catálogos éticos, al establecer derechos y obligaciones precisos y vías para hacerlos valer.

IA regida por la Ley. Debemos reconocer los manifiestos éticos como el principio de la construcción del marco institucional de la IA. Requerimos reglas precisas para aquellas cuestiones fundamentales y de interés público en que la IA nos afecte, como individuos y sociedades.

La construcción será ardua, sujeta a ensayo y error y al reto de la acelerada evolución tecnológica. Sobre esto, cabe indicar que, aunque los principios legales torales deben ser dictados por órganos que gocen de representatividad ciudadana, como son los congresos en los países democráticos, la especialización e innovación sugieren que existan autoridades ex profeso para desarrollar la regulación que cumpla los postulados de la ley.

No obstante, ante la proliferación de la IA en prácticamente todas las actividades humanas, sería inapropiado tener un solo regulador. Las autoridades sectoriales, capacitadas en cada ramo específico, darían la mejor guía para valorar la incorporación y uso de la IA, de acuerdo con su experiencia acumulada, aunque haya una autoridad concreta en cuestiones técnicas de la IA.

La IA no tiene voluntad propia, refleja y potencia la nuestra. Es, como cualquier tecnología, moral y éticamente neutra. El uso dado calificará la probidad, no de la IA, sino de quiénes y cómo la emplean. La IA es una oportunidad, otra, que el talento humano nos proporciona.

El marco institucional, guiado por la ética, para forjar un entramado de regulación axiológicamente positiva, es uno de los principales cometidos de la autoridad pública. Un marco de seguridad y certeza lo es de libertad, para empresas y desarrolladores de la IA, sí, pero sobre todo para la persona común.

Será la clara y precisa Ley que para la IA nos brindemos, lo que la hará instrumento de mayores libertades y para la felicidad posible.

Adolfo Cuevas Teja

Excomisionado del Instituto Federal de Telecomunicaciones (IFT). Es maestro en Administración Pública por la John F. Kennedy School de la Universidad de Harvard. Cursó la Maestría en Derecho en la UNAM.

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí
tracking reference image

Últimas noticias

Noticias Recomendadas

Suscríbete