Por Mark Evilsizor
Tecnología
En 1913, H. G. Wells escribió el libro El mundo feliz. En este postuló la posibilidad de la energía nuclear y las armas atómicas. Esto fue 20 años antes de que el físico Leo Szilard descubriera las posibilidades de una reacción nuclear en cadena y 32 años antes de que se usara por primera vez un arma atómica. Wells estaba familiarizado con los descubrimientos y escritos científicos de su época y proyectó el posible uso de la expresión tecnológica de la ciencia atómica para beneficio o perjuicio.
Hoy en día, algunos comparan la IA (inteligencia artificial) y el estado actual de la IA generativa con el inicio de la era atómica. Las empresas ya están utilizando las capacidades de la IA para ayudar a los representantes de servicio al cliente recién contratados a desempeñarse al nivel de un empleado experimentado. Aún está por verse si esto llevará a las empresas a valorar más a su nuevo personal o a prescindir de sus empleados mejor pagados. En cualquier caso, la IA se está utilizando actualmente para remodelar el lugar de trabajo a medida que las empresas se esfuerzan por incorporar estas nuevas tecnologías.
A finales de mayo de 2023, 350 líderes del campo de la IA firmaron una advertencia breve en la que nos pedían que tuviéramos en cuenta los perjuicios que puede acarrear la IA y no avanzáramos ciegamente hacia el futuro. Al mismo tiempo, otros pensadores sostienen que tal advertencia es una exageración y sugieren más bien que la IA generativa es simplemente un "autocompletar a la N potencia".
¿En qué punto empezamos a ponderar hacia dónde podríamos estar dirigiéndonos, qué gobernanza y salvaguardas pueden aplicarse a esta nueva tecnología? Creo que leer historias de ciencia ficción (CF), o ver películas de ciencia ficción, puede sernos útil a medida que lidiamos con la tecnología a la que nos enfrentamos hoy.
En la CF, la imaginación de un autor a menudo comienza con nuestro mundo actual y luego sigue el rastro hacia un futuro potencial. Las historias de CF pueden deleitarnos con la perspectiva de futuras tecnologías y formas de ser (todavía sigo esperando mi auto volador estilo Los Supersonicos), o bien advertirnos de una catástrofe futura (pensando en las películas de Terminator ). Veamos algunos ejemplos para guiar nuestra reflexión.
Durante las décadas de 1940 y 1950, Isaac Asimov escribió las historias de Yo robot. Al inicio, postula tres leyes que están integradas en todos los robots para mantener a los humanos a salvo. Estas son: Un robot no puede dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño. Un robot debe cumplir las órdenes de los seres humanos, excepto si dichas órdenes entran en conflicto con la Primera Ley. Un robot debe proteger su propia existencia en la medida en que ello no entre en conflicto con la Primera o la Segunda Ley.[1]. Luego procede a contar historias de dilemas en los que estas leyes no son suficientes. Es muy entretenido y estimulante. Quizás estas reglas puedan servir como salvaguardas éticas para la IA que se está desarrollando hoy.
Arthur C. Clarke escribió 2001: una odisea en el espacio en 1968. Este libro explora viajes espaciales avanzados y varios temas que no voy a espoilear, pero incluye un personaje icónico de IA, una computadora llamada HAL (una letra desplazada hacia abajo de IBM, el líder mundial en computación en esos tiempos). A través de las interacciones entre la tripulación espacial y HAL, Clarke explora lo que sucede cuando la IA tiene objetivos que no están en sincronía con quienes la usan. A medida que establecemos objetivos sencillos, damos autonomía para actuar y ponemos recursos a disposición de la IA (busque el experimento mental del maximizador de sujetapapeles), quizá debamos recordar a HAL.
Un valeroso nuevo mundo se publicó en 1932 y todavía vale la pena leerlo hoy. En su libro, Aldous Huxley describe un mundo donde la tecnología se usa para pacificar y controlar a la sociedad. Explora el uso de la ingeniería genética, qué nos hace humanos y cómo la comodidad y la verdad no siempre son compatibles.
Tanto Contacto, de Carl Sagan, como El problema de los tres cuerpos de Liu Cixin, exploran cómo podría ser el contacto con la vida más allá de nuestro planeta. Además, en estos libros se incluyen exploraciones sobre la fe y la ciencia, así como pensamientos sobre consecuencias no deseadas. Si imaginamos en términos generales y tenemos en cuenta las posibles consecuencias desde el principio, quizá podamos evitar los escenarios calamitosos sugeridos en estas y otras obras de CF.
Por último, los dejo con la historia de Nichelle Nichols. Interpretó a la teniente Uhura en la serie original Star Trek El programa de televisión retrató muchas tecnologías que aún no hemos creado y exploró cuestiones éticas relacionadas con el uso de la ciencia y la tecnología. En un momento, Nichols estaba considerando dejar el programa, hasta que le presentaron al Dr. Martin Luther King Jr. en una reunión. Ella le comunicó su intención al líder de los derechos civiles, pero este la animó a conservar su papel porque, según él, su representación mostraba a los afroamericanos "como personas inteligentes, de calidad, bellas, que saben cantar, bailar y pueden ir al espacio..." Nichols se quedó en el programa y posteriormente empezó a trabajar con la NASA, ayudando a reclutar a la doctora Sally Ride y al coronel Guion Bluford, la primera mujer y el primer afroamericano, respectivamente, en ir al espacio.
Así pues, es posible que las direcciones de la IA en el futuro ya se hayan considerado y estén a nuestro alcance para que reflexionemos sobre ellas. Solo he arañado la superficie del contenido inspirador, desafiante y esclarecedor que está disponible. Tal vez, al considerar estas historias, podemos ser más reflexivos conforme moldeamos los caminos y tecnologías del futuro.
Mark Evilsizor ha trabajado en Tecnologías de la Información durante más de 25 años. Actualmente se desempeña como jefe de TI para la Biblioteca Linda Hall en Kansas City, Mo. Las opiniones expresadas son propias.