Skip to Content, Navigation, or Footer.

El dilema ético de la tecnología

Elaborar paradigmas éticos para la tecnología emergente resulta ser arduo

spmagtvcollage la prensa

De una pantalla de televisión obsoleta, surge una nueva era de tecnología con infinitas posibilidades. Ilustración publicada originalmente el miércoles 6 de octubre de 2021.


La vida estadounidense contemporánea se define cada vez más por nuestra relación íntima con la tecnología siempre floreciente, una fuerza que ha crecido para ser más penetrante y omnipresente. 

En medio de este torbellino de cambios, los investigadores y desarrolladores tienen la tarea de abordar la letanía de dilemas éticos que surgen. Buscamos a los tecnócratas en busqueda de orientación en nuestro mundo conectado, pero existen grandes discrepancias en cómo, o si, estas nuevas tecnologías encajan en los marcos éticos.

La inteligencia artificial, quizás una de las tecnologías emergentes más éticamente volátiles, no es tan nueva como parece. Décadas de conceptualización de la autonomía de la máquina culminaron en 1951, cuando Christopher Strachey desarrolló un programa de inteligencia artificial competente, y en 1956 con Logic Theorist, el primer programa de computadora desarrolló para imitar el pensamiento humano. 

Desde entonces, la ingeniería de la inteligencia artificial experimentó un auge, lo que garantizó un impulso social en la era de los macrodatos, los robots parlantes y demasiadas preocupaciones éticas para contar. La inteligencia artificial se ha adaptado a nuestra vida diaria, a veces de forma abrupta, pero en su mayoría sin problemas. AI mismo tiempo ha demostrado prejuicios de programación relacionados con la raza, el género, la sexualidad, la religión y la discapacidad.

Preocupaciones éticas similares plagan la realidad aumentada y virtual, dos herramientas que se utilizan en entornos que van desde los videojuegos hasta la narración de historias de no ficción.

La RA, tecnología que superpone una imagen a la perspectiva existente del espectador, y la RV, una imagen tridimensional generada por computadora que sumerge al espectador en una nueva perspectiva, han ido creciendo durante décadas.

Similar a la inteligencia artificial, la realidad aumentada y virtual tienen sus inicios en un pensamiento visionario incongruente con la tecnología existente de principios del siglo 20. El avance de la realidad virtual se produjo en 1960 cuando Morton Heilig patentó Telesphere Mask, un visor de realidad virtual portátil similar a los que se usan en los juegos de Oculus. 

Un puñado de cuestiones éticas persisten en los campos de la realidad virtual y aumentada, incluyendo cómo priorizar la seguridad del usuario, la ética de la pornografía en realidad virtual, y, en el periodismo, determinar qué es representación veraz y qué debe incluirse o excluirse.

Medios inmersivos

Retha Hill, directora ejecutiva de la New Media Innovation and Entrepreneurship Lab en el Walter Cronkite School of Journalism and Mass Communication, dijo que estos dilemas éticos no son nuevos, pero han sido amplificados por la explosión de la tecnología y la nueva habilidad de cualquiera para manipularlos. 

Hill les ruega a sus estudiantes que examinen cómo y por qué usan las herramientas disponibles para contar historias mientras minimizan el daño y transmiten mensajes veraces. El laboratorio se centra en explorar la tecnología inmersiva de vanguardia y su capacidad para entregar información a los espectadores. Hill dijo que antes de centrarse en los principios éticos específicos de la tecnología utilizada en el laboratorio, les pide a los estudiantes que consideren los principios periodísticos fundamentales y los apliquen a las materias que representan. 

Contradando la opinión popular, Hill dijo que los periodistas que trabajan en medios inmersivos se adhieren a principios estrictos de verdad y justicia. "Siempre nos aseguramos de ser fieles a la escena que intentamos simular." 

Hill relató a un estudiante que quería crear un juego de noticias centrado en el tráfico sexual en Miami durante el Super Bowl. El lugar y los espectadores tenían que ser representativos de Miami desde una perspectiva de juego en primera persona, y Hill y su estudiante debían tener cuidado de no utilizar estereotipos amplios de personas en su descripción. El propósito del juego de noticias era concienciar a los jugadores de los signos del tráfico sexual y darles la oportunidad de practicar cómo informar sobre comportamientos sospechosos a una figura de autoridad.

La representación precisa y veraz de las fuentes en el periodismo generado por computadora es fundamental para garantizar que la información errónea no se propague como la pólvora, dijo Hill. Como periodista desde hace mucho tiempo con un interés continuo en explorar la tecnología de los medios emergentes, Hill explicó cómo la inteligencia artificial ha crecido a lo largo de los años para permitir que cualquiera retrate figuras públicas o privadas como le plazca.

"Tenemos la capacidad de usar herramientas como deepfakes y modificación de voz, impresión de voz, podemos hacer todo eso ahora que no teníamos en ese entonces," dijo. "Si quisiéramos tener la voz de alguien que dijera algo, contrataríamos a un actor de doblaje ... pero ahora podemos ir y probar la voz de una persona y podemos hacer que esa persona diga lo que sea."

Nonny de la Peña, directora fundadora del Center for Emerging Media and Narrative de ASU, que ha sido apodada la 'Madrina de la realidad virtual,' dijo que toma los principios éticos que aprendió como periodista impresa y los aplica a su trabajo con la realidad virtual y la realidad aumentada.

Para de la Peña, las cuestiones éticas se derivan de las decisiones de edición que se toman al crear una pieza inmersiva, que "realmente no es diferente a la edición de una película." Lo que es diferente en las piezas inmersivas es la parte del espectador en la historia. 

Al diseñar una simulación de realidad aumentada o virtual, se analiza constantemente qué incluir y cómo incluirlo. "En palabras escritas, estamos muy contentos de describir las cosas de manera muy gráfica," dijo de la Peña. "Pero luego, cuando nos dedicamos a hacer algo visualmente, tenemos mucho más cuidado al respecto. No digo que eso sea algo malo, pero es la verdad."

Jayson Chesler, ex alumno de Hill y periodista que trabaja con tecnología emergente, dijo que las decisiones éticas varían según la tecnología, la elección de representación y cómo se busca representarla. 

En abril de 2020, Chesler y su ex colega de McClatchy, Theresa Poulson, crearon "A Guide to Immersive Ethics." La guía presenta preguntas y estudios de casos que deben tenerse en cuenta al capturar y recrear digitalmente una persona o un evento.

"Realmente hay que tener en cuenta cómo me estoy desviando de la realidad, cómo puedo volver con mayor precisión a la realidad, cómo puedo hacer que esta representación en 3D sea lo más real posible," dijo Chesler. “Y luego, más allá de eso, si me veo obligado a tomar decisiones alejadas de la realidad ... ¿cómo puedo minimizar el daño de eso, tanto en la forma en que represento a mi fuente como en la forma en que comunico esa inexactitud a mi audiencia?"

Las tecnologías emergentes se han afianzado en los espacios de narración visual y también están prosperando en otros campos. Los académicos e investigadores de ASU e instituciones de todo el país están profundizando en el aprendizaje automático, la visión por computadora, la cooperación entre robots y humanos y más.

Asegurando autonomia

Lixiao Huang, científico investigador asociado del Center for Human, Artificial Intelligence and Robot Teaming de la Universidad, o CHART, investiga oportunidades de colaboración entre humanos y robots. El centro también analiza cuestiones éticas y legales en tecnología emergente.

Una preocupación ética en el campo de los equipos de robots parece sacada de un éxito de taquilla distópico de ciencia ficción. Nancy Cooke, profesora y directora de CHART, dijo que "con robots físicos ... no quieres que sean lo suficientemente fuertes como para matarte o para cometer errores estúpidos."

Sin embargo, el mayor problema, explicó Cooke, se encuentra en la inteligencia artificial y el aprendizaje automático. En medicina y defensa, tener resultados sesgados puede presentar grandes obstáculos, y las máquinas autónomas como productos de consumo que carecen de transparencia con respecto a sus limitaciones, es decir, los vehículos autónomos, tienen posibilidades peligrosas

"Quién tiene la culpa cuando el vehículo mata a alguien?" Cooke dijo. “Ya hemos visto este problema. Es el fabricante del vehículo? Es el programador? … Fue el conductor?"

Si bien muchos investigadores consideran de manera preventiva las implicaciones éticas de la tecnología que están creando, algunos están "empeñados en desarrollar la tecnología porque se puede, no porque debiera," dijo Cooke. 

“El peligro es que construyen cosas y luego tienes que resolver los errores después de los hechos. Bueno, si esos son errores que van a matar a la gente, eso es bastante importante." La pregunta es, como Cooke lo ve, "¿cómo se ha asegurado la autonomía?"

Huang ve habitualmente debates sobre el "tema candente" de la inteligencia artificial y la ética en los vehículos autónomos. "Elon Musk dijo que los autos (de Tesla) son capaces de conducirse por sí mismos, pero en realidad aún no están ahí," explicó Huang. “Entonces los consumidores, escuchan sus anuncios y afirmaciones falsas, y confían plenamente en la autonomización y ponen el Autopilotón, que provocó los accidentes fatales."

Si bien la autonomía de los vehículos de Musk no debe usarse en su totalidad, Huang señaló que no usar la tecnología en absoluto frustraría el propósito de su existencia: ayudar a los humanos, no conducir para ellos.

Pavan Turaga, el director de el School of Arts, Media and Engineering de ASU, repitió los sentimientos de Huang sobre la ética en la inteligencia artificial, calificándolo como un "tema de debate vigoroso en este momento." Antes de buscar soluciones a preguntas éticas más amplias y complicadas, Turaga dijo que las personas que buscan respuestas deben considerar el sesgo en la IA.

El aprendizaje automático, que se basa en ejemplos y conjuntos de datos para reproducir fenómenos, es particularmente susceptible de mantener sesgos, ya que carecen de un puñado de elementos humanos; en el contexto del software de reconocimiento facial, Turaga ve una letanía de posibles problemas de sesgo. 

Este tipo de software, que se utiliza en instancias desde la aplicación de la ley hasta las decisiones de vivienda, requiere una lista de rostros etiquetados, lo que deja espacio para la discriminación. Los investigadores deben confrontar a la IA con preguntas difíciles para asegurarse de que este prejuicio tecnológico no se sostenga y prolifere.

“De dónde sacaste la base de datos? Quién lo etiquetó? Qué razas están representadas? Qué tonos de piel están representados? Qué tipos de cuerpos están representados? Qué asumiste en el conjunto de datos que es representativo del mundo?" preguntó Turaga. “Así que, para empezar, es ahí donde se infiltran muchos de los sesgos de los conjuntos de datos. Realmente no tenemos una forma fuerte y sólida de garantizar que los conjuntos de datos que adquirimos para entrenar un sistema estén libres de sesgos."

El campo de la inteligencia artificial ha comenzado a reconocer que el sesgo de representación prevalece en los datos, dijo Turaga, pero sigue habiendo desacuerdo sobre cómo abordarlo de manera escalable. Turaga planteó la perspectiva de comités de supervisión pública, lo que probablemente aumentaría la transparencia en numerosas facetas de la inteligencia artificial, junto con la ampliación de las regulaciones gubernamentales sobre las entidades corporativas que utilizan la recopilación de datos como armas para su propio beneficio.

A pesar de la simplicidad de las propuestas regulatorias y de supervisión, el camino hacia estándares éticos cohesivos es largo y tortuoso.

Igualdad versus equidad

A diferencia de cómo los periodistas tienen estándares para emplear tecnologías emergentes, no existe un marco establecido para abordar los dilemas éticos en inteligencia artificial y equipos de robots, dijo Huang, pero dijo que eventualmente habrá algún código regulatorio.

Como está ahora, los legisladores confían en los investigadores de ética para crear leyes o pautas caso por caso para las empresas que participan en este trabajo. Sin embargo, debido a que la inteligencia artificial y los equipos de robots son relativamente un nicho y evolucionan constantemente, hace que sea difícil elaborar una legislación que abarque todas las cuestiones éticas que plagan el campo. Los paradigmas éticos propuestos, tanto utilitarios como igualitarios, presentan sus propios problemas, dijo Turaga. 

“El mayor bien para el mayor número de personas a menudo puede significar marginar a la minoría porque, 'oye, no puedo incomodar a la mayoría,'” dijo Turaga. “El otro sistema ético es todo lo contrario, es decir, 'todo el mundo necesita ser tratado por igual'. Eso trae sus propios problemas, que es que todo el mundo no puede ser tratado por igual.

“La igualdad tiene fallas. Ahora la gente no habla tanto de igualdad como de equidad."


Comuníquense con el periodista a stellefs@asu.edu o sigan a @samtellefson en Twitter. 

Denle Like a State Press Magazine en Facebook y sigan a @statepressmag en Twitter.

Continúen apoyando el periodismo estudiantil independiente y consideren donar a La Prensa (The State Press) hoy.


Sam EllefsonMagazine Managing Editor

Sam Ellefson is a managing editor for State Press Magazine, contributing articles between editing and guiding a team of writers. Sam is a junior getting a degree in journalism with minors in film and media studies and political science.


Continue supporting student journalism and donate to The State Press today.

Subscribe to Pressing Matters



×

Notice

This website uses cookies to make your experience better and easier. By using this website you consent to our use of cookies. For more information, please see our Cookie Policy.