Buscar
Opinión

Lectura 6:00 min

Los principios de la Algorética están en la ciencia ficción

main image

A principios de este siglo, en el marco de las tecnologías de ese momento, quienes nos dedicamos al análisis de la comunicación y la cultura, examinábamos la Infoética, la ética en la información. Una disciplina que estudiaba la naturaleza e impacto social de las tecnologías de la información en los valores humanos y sociales. Esto es, en los valores predigitales de conexión que aún solíamos tener en la salud, el trabajo, la libertad, la seguridad, la solidaridad, la privacidad, el conocimiento, la creatividad, el respeto, la democracia etcétera. Particularmente al tomar decisiones personales. Proponía soluciones éticas en la práctica profesional, diseño e implementación de políticas públicas.

Posteriormente, emergerían un puñado de empresas en el Silicon Valley con la promesa de impulsar Internet y sus derivados como una herramienta al servicio de la humanidad. Sabemos que no fue así, terminaron poniendo a la humanidad al servicio de la red. Con el tiempo, el recurso lippmaniano (Walter Lippman) fue perfeccionado e hizo más fácil la predicción algorítmica de los comportamientos, la focalización de los deseos y la difusión vertical de los gustos de la que hablaba Pierre Boudieu. 

Hoy estamos ante la Algorética. Ante la necesidad de contar con una visión humana en el desarrollo de la Inteligencia Artificial y sus derivados. El propósito sigue siendo el mismo, solo que esta vez se trata de concienciar al mayor número de agentes sociales para convencer al mayor número de agentes económicos de colocar al ser humano en el centro del desarrollo tecnológico. De no padecer los aspectos negativos del crecimiento (que no desarrollo) de la IA.

Ya no nos preocupa lo que nos inyectan, sino lo que nos sustraen, señala Néstor García Canclini en su más reciente ensayo (Ciudadanos reemplazados por algoritmos), aludiendo seguramente a la Teoría de la Aguja Hipodérmica. A guisa de ejemplo, tenemos el de una poderosa plataforma de servicio de taxis, que con la información que poseé de los usuarios, aumentaba el precio de las tarifas cuando detectaba que la batería de sus celulares estaba baja, puesto que no les daría tiempo de comparar precios. La empresa fue obligada a eliminar dicha práctica. Y qué decir de la reciente comparecencia de los marcatenientes de la red ante el Congreso de los Estados Unidos por el abusivo manejo de información y datos en menores de edad.

La Algorética tiene el humano propósito de garantizar el libre albedrío, a la privacidad mental, la identidad personal, al acceso equitativo a tecnologías de aumento mental y a la protección contra sesgos de algoritmos de inteligencia artificial. Esto a través de la ciudadanía digital, de nuestro estatus de ciudadanos, no de consumidores ni mucho menos de perfilados.

Por descabellado que parezca los principios de la Algorética y los Neuroderechos antes mencionados, están establecidos en la ciencia ficción. Sí, en las leyes de la robótica de Isaac Asimov, escritor y profesor de bioquímica en la facultad de medicina de la universidad de Boston. Más conocido como creador de obras de ciencia ficción, historia y divulgación científica. En El círculo vicioso Runaround (1942) expuso las Tres Leyes de la Robótica. La primera establece que un humano no puede desplegar un robot sin que el sistema de trabajo humano-robot cumpla los más altos estándares legales y profesionales relativos a la ética y seguridad. La segunda, que un robot debe obedecer las órdenes que le den los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley. Y la tercera, que un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley. Cuatro décadas más tarde añadió la considerada Cuarta Ley, la Ley Cero. Lo hizo en su obra Robots e imperio. En ella sostiene que un robot no puede causar daño a la humanidad o, por inacción, permitir que la humanidad sufra daño. Es decir, los robots (y cuando digo robots digo máquinas), no deben diseñarse únicamente para matar o dañar seres humanos. Deben ser herramientas diseñadas para lograr objetivos humanos. Por tanto, deben diseñarse garantizando seguridad y protección. Dicho de otra manera, no pueden afectar negativamente al ser humano: Los seres humanos —no los robots ni las máquinas (Son Agentes Responsables)—.

La Recomendación sobre la ética de la Inteligencia artificial, promovida por la Unesco y adoptada por los Estados miembros en 2021 (en su calidad de actores de la IA y de autoridades responsables de la elaboración de marcos jurídicos y reguladores a lo largo del ciclo de vida de los sistemas de IA), promueve también la responsabilidad empresarial. En el apartado “Supervisión y decisión humanas”, sostiene que los  Estados  Miembros: “deberían  velar  por  que  siempre  sea  posible  atribuir  la  responsabilidad  ética  y  jurídica,  en  cualquier  etapa  del  ciclo  de  vida  de  los  sistemas  de  IA,  así  como  en  los  casos  de  recurso  relacionados  con  sistemas de IA, a personas físicas o a entidades jurídicas existentes”. Ningún ser humano ni comunidad humana, dice, debería sufrir daños o sometimiento, ya sea de carácter físico, económico, social, político, cultural o mental, durante ninguna etapa del ciclo de vida de los sistemas de IA. Antes bien, habrán de mejorar la calidad de vida.

Habremos de sacar del campo de la ciencia ficción las Leyes de la Robótica de Asimov para apuntalar una Algorética al servicio de la humanidad. No olvidemos que distopías como Matrix y Terminator nacieron en el momento en que las máquinas no fueron programadas conforme a la Ley Cero. Debe preocuparnos el hecho de que las distopías de hoy ya no hacen referencia a ese dilema ético. Es necesario recordar el célebre preámbulo de la Constitución de la Unesco el cual pregona que, puesto que las guerras nacen en la mente de los hombres, es ahí donde deben erigirse los baluartes de la paz.  Lo digo porque a principios de este año la empresa Chat GTP cambió sus políticas de uso para poder desarrollar IA en la industria militar.

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí
tracking reference image

Últimas noticias

Noticias Recomendadas

Suscríbete