May 17, 2023
Preguntas y respuestas: los expertos dicen que detener la IA no es posible, o deseable
Por
Por Lucas Mearian
Reportero sénior, Computerworld |
A medida que las herramientas generativas de inteligencia artificial como ChatGPT de OpenAI y Bard de Google continúan evolucionando a un ritmo vertiginoso, lo que genera dudas sobre la confiabilidad e incluso los derechos humanos, los expertos están sopesando si la tecnología puede ralentizarse y hacerse más segura, y cómo hacerlo.
En marzo, el Future of Life Institute, una organización sin fines de lucro, publicó una carta abierta en la que pedía una pausa de seis meses en el desarrollo de ChatGPT, el chatbot basado en IA creado por OpenAI, respaldado por Microsoft. La carta, ahora firmada por más de 31,000 personas, enfatizó que los sistemas poderosos de IA solo deben desarrollarse una vez que se puedan administrar sus riesgos.
"¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?" preguntó la carta.
El cofundador de Apple, Steve Wozniak, y el CEO de SpaceX y Tesla, Elon Musk, se unieron a miles de otros signatarios para acordar que la IA plantea "profundos riesgos para la sociedad y la humanidad, como lo demuestra una extensa investigación y lo reconocen los principales laboratorios de IA".
En mayo, el Centro para la Seguridad de la IA, una organización sin fines de lucro, publicó una carta abierta similar en la que declaraba que la IA representa un riesgo de extinción global a la par de las pandemias y la guerra nuclear. Los firmantes de esa declaración incluyeron a muchos de los mismos científicos y ejecutivos de IA que llevaron la IA generativa a las masas.
También se espera que los trabajos sean reemplazados por IA generativa: muchos trabajos. En marzo, Goldman Sachs publicó un informe en el que estimaba que la IA generativa y su capacidad para automatizar tareas podrían afectar hasta 300 millones de puestos de trabajo en todo el mundo. Y a principios de mayo, IBM dijo que detendría los planes para cubrir alrededor de 7800 puestos y estimó que casi tres de cada 10 puestos administrativos podrían ser reemplazados por IA durante un período de cinco años, según un informe de Bloomberg.
Si bien las revoluciones industriales pasadas automatizaron las tareas y reemplazaron a los trabajadores, esos cambios también crearon más empleos de los que eliminaron. Por ejemplo, la máquina de vapor necesitaba carbón para funcionar, y personas para construirla y mantenerla.
Sin embargo, la IA generativa no es un equivalente de la revolución industrial. La IA puede enseñarse a sí misma y ya ha ingerido la mayor parte de la información creada por los humanos. Pronto, la IA comenzará a complementar el conocimiento humano con el suyo propio.
Geoff Schaefer, jefe de IA responsable, Booz Allen Hamilton
Geoff Schaefer es jefe de AI responsable en Booz Allen Hamilton, un contratista militar y del gobierno de EE. UU., que se especializa en inteligencia. Susannah Shattuck es jefa de producto en Credo AI, un proveedor de SaaS de gobernanza de IA.
Computerworld habló recientemente con Schaefer y Shattuck sobre el futuro de la IA y su impacto en los empleos y la sociedad en general. Lo siguiente son extractos de esa entrevista.
¿Qué riesgos plantea la IA generativa?Shattuck: "Sesgo algorítmico. Estos son sistemas que hacen predicciones basadas en patrones en los datos en los que han sido entrenados. Y como todos sabemos, vivimos en un mundo sesgado. Los datos en los que estamos entrenando estos sistemas a menudo son sesgado, y si no somos cuidadosos y reflexivos sobre las formas en que estamos enseñando o entrenando estos sistemas para reconocer patrones en los datos, podemos enseñarlos o entrenarlos sin querer para hacer predicciones sesgadas.
"Explicabilidad. Muchos de los modelos más complejos [en lenguaje extenso] que podemos construir en estos días son bastante opacos para nosotros. No entendemos exactamente cómo hacen una predicción. -confianza o entorno de toma de decisiones muy sensible, puede ser un desafío confiar en un sistema de IA cuyo proceso de toma de decisiones no comprende completamente.Y es por eso que estamos viendo una regulación cada vez mayor que se centra en la transparencia de los sistemas de IA.
"Le daré un ejemplo muy concreto: si voy a implementar un sistema de inteligencia artificial en un escenario de atención médica en el que voy a hacer que ese sistema haga ciertas recomendaciones a un médico en función de los datos del paciente, entonces la explicabilidad es va a ser realmente crítico que ese médico esté dispuesto a confiar en el sistema.
"Lo último que diré es que los riesgos de la IA evolucionan continuamente a medida que evoluciona la tecnología. Y [hay un] conjunto emergente de riesgos de la IA con los que realmente no hemos tenido que lidiar antes: el riesgo de alucinaciones, por ejemplo Estos sistemas generativos de IA pueden hacer un trabajo muy convincente al generar información que parece real, pero que no se basa en ningún hecho".
Si bien no podemos predecir todos los riesgos futuros, ¿cuál cree que es más probable que ocurra?Schaefer: "A estos sistemas no se les atribuye la capacidad de hacer todas las cosas que ahora pueden hacer. No programamos GPT-4 para escribir programas de computadora, pero puede hacerlo, especialmente cuando se combina con otras capacidades. como el intérprete de código y otros programas y complementos. Eso es emocionante y un poco desalentador. Estamos tratando de entender los perfiles de riesgo de estos sistemas. Los perfiles de riesgo, que están evolucionando literalmente a diario.
"Eso no significa que todo sea riesgo neto. También hay beneficios netos, incluso en el espacio de seguridad. Creo que [la empresa de investigación de seguridad de IA] Anthropic es un ejemplo realmente interesante de eso, donde están haciendo algunas pruebas de seguridad realmente interesantes". trabajo en el que le piden a un modelo que sea menos sesgado y, a un cierto tamaño, descubrieron que literalmente producirá resultados menos sesgados simplemente preguntándolo. Entonces, creo que debemos ver cómo podemos aprovechar algunas de esas capacidades emergentes. para gestionar el riesgo de estos sistemas en sí mismos, así como el riesgo de las novedades netas de estas capacidades emergentes".
¿Así que solo le estamos pidiendo que sea más agradable?Schaefer: "Sí, literalmente".
Estos sistemas se están volviendo exponencialmente más inteligentes en períodos cortos de tiempo y van a evolucionar a un ritmo más rápido. ¿Podemos incluso controlarlos en este punto?Schaefer: "Soy un optimista de la IA. Creo que controlarla no es posible ni deseable. Desde el punto de vista de la ética de la IA, pienso mucho en esto. ¿Qué es la ética? ¿Cuál es el ancla? ¿Qué es nuestra brújula moral en este campo de estudio, etc. vivir una buena vida... Aristóteles llamó a esto Eudaimonia, que significa felicidad humana, florecimiento humano, una especie de combinación única de esas dos cosas.
"Y creo que si aplicamos esa... lente a los sistemas de IA ahora, lo que consideraríamos ético y responsable se vería bastante diferente. Entonces, los sistemas de IA que producen la mayor cantidad de prosperidad y felicidad humana, creo que deberíamos considerar responsable y ético. Y creo que un ejemplo principal de eso es el sistema AlphaFold [de Google] DeepMind. Probablemente esté familiarizado con este modelo, superó el principal desafío en biología de descifrar los pliegues de proteínas, que está para transformar la medicina moderna, aquí y hacia el futuro Si eso tiene resultados importantes para los pacientes, eso equivale a la prosperidad humana.
"Entonces, creo que deberíamos centrarnos tanto en cómo se pueden usar estos poderosos sistemas de IA para hacer avanzar la ciencia de maneras que literalmente no podíamos antes. Desde mejorar los servicios que los ciudadanos experimentan a diario, todo, desde cosas tan aburridas como el servicio postal servicio tan emocionante como lo que está haciendo la NOAA en el espacio del cambio climático.
"Entonces, en la red, estoy menos preocupado que temeroso".
Susannah Shattuck, jefa de producto, Credo AI
Shattuck: "También soy optimista. [Pero] creo que el elemento humano siempre es una gran fuente de riesgo para las tecnologías increíblemente poderosas. Cuando pienso en lo que realmente es transformador de la IA generativa, creo que una de las cosas más transformadoras es que la interfaz para que un sistema de IA haga algo por usted ahora es una interfaz humana universal de texto. Mientras que antes, los sistemas de IA eran cosas que necesitaba saber cómo codificar para construir correctamente y guiar para que hicieran las cosas por Ahora, literalmente cualquiera que pueda escribir, enviar mensajes de texto [o] hablar mensajes de texto y pueda interactuar con un sistema de IA muy poderoso y hacer que haga algo por ellos, y creo que eso tiene un potencial increíble.
"También soy optimista en muchos sentidos, pero [esa interfaz simple] también significa que la barrera de entrada para los malos actores es increíblemente baja. Significa que la barrera de entrada para el mal uso de estos sistemas es muy baja. Entonces, Creo que eso hace que sea aún más importante definir barandillas que prevengan el uso indebido o el abuso, tanto intencional como no intencional, de estos sistemas para definir".
¿Cómo impactará la IA generativa en los trabajos? ¿Será esto como las revoluciones industriales anteriores que eliminaron muchos trabajos a través de la automatización pero dieron como resultado nuevas ocupaciones a través de puestos calificados?Schaefer: "Me tomo muy en serio el análisis de personas como Goldman Sachs: [IA] impacta en más de 300 millones de empleos de alguna manera, hasta cierto punto. Creo que es correcto. Es solo una cuestión de cómo se ve realmente ese impacto, y cómo podemos hacer la transición y mejorar. Creo que el jurado todavía está deliberando sobre eso. Es algo que debemos planificar ahora mismo en lugar de asumir que esto será como cualquier transición tecnológica anterior en el sentido de que creará nuevos puestos de trabajo. No sé que está garantizado.
"Esto es nuevo en el sentido de que los trabajos que va a impactar son de un tipo socioeconómico diferente, de base más amplia y tienen un mayor impacto en el PIB, por así decirlo. Y francamente, esto moverá mercados, moverá industrias y moverá verticales educativos completos". en formas en que la revolución industrial no lo hizo anteriormente. Por lo tanto, creo que este es un tipo de cambio fundamentalmente diferente".
Shattuck: "Mi ex empleador [IBM] dice que no van a contratar [miles de] ingenieros, ingenieros de software que originalmente planeaban contratar. Han hecho... declaraciones de que estos sistemas de IA básicamente les permiten obtener la mismo tipo de salida [con menos ingenieros de software]. Y si ha usado alguna de estas herramientas para la generación de código, creo que es probablemente el ejemplo perfecto de las formas en que estos sistemas pueden mejorar a los humanos [y pueden] cambiar drásticamente el número de personas que necesita para construir software.
"Entonces, el otro ejemplo que se está desarrollando en este momento es que hay una huelga de escritores en Hollywood. Y sé que uno de los temas sobre la mesa en este momento, una de las razones por las que los escritores están en huelga, es que ' Me preocupa que ChatGPT [y otros sistemas generativos de IA] se utilicen cada vez más para reemplazar a los escritores. Entonces, uno de los problemas laborales que se encuentran sobre la mesa en este momento es un número mínimo de escritores, ya sabes, escritores humanos que deben ser asignado para trabajar en un programa o para trabajar en una película. Y creo que estos son problemas laborales muy reales que se están desarrollando actualmente.
"¿Qué regulación termina aprobándose para proteger a los trabajadores humanos? Creo que vamos a ver cada vez más que existe una tensión entre los trabajadores humanos y sus derechos y realmente las increíbles ganancias de productividad que obtenemos de estas herramientas".
Hablemos de procedencia. Los sistemas de IA generativa pueden simplemente robar propiedad intelectual y obras con derechos de autor porque actualmente no existe un método automatizado y estandarizado para detectar qué es generado por IA y qué es creado por humanos. ¿Cómo protegemos las obras originales de autoría?Shattuck:" Hemos pensado mucho en esto en Credo porque es un riesgo muy importante para nuestros clientes y saben que están buscando soluciones para resolverlo. Creo que hay un par de cosas que podemos hacer. Hay un par de lugares para intervenir directamente en el flujo de trabajo de IA, por así decirlo. Un lugar para intervenir es justo en el punto donde el sistema de IA produce una salida. Si puede verificar las salidas de los sistemas de IA de manera efectiva contra el mundo del material con derechos de autor, si hay una coincidencia, entonces puede bloquear efectivamente las salidas de IA generativas que estarían infringiendo los derechos de autor de otra persona.
"Entonces, un ejemplo sería, si está utilizando un sistema de inteligencia artificial generativa para generar imágenes, y ese sistema genera una imagen que contiene probablemente la imagen más disputada por derechos de autor en el mundo, las orejas de Mickey Mouse, desea automáticamente bloquee esa salida porque no quiere que Disney venga a por usted si accidentalmente la usa en algún lugar de su sitio web o en sus materiales de marketing. podría implementar, y esto es probablemente lo más fácil de hacer para el código.
"Luego hay otro nivel de intervención, que creo que está relacionado con la marca de agua, que es cómo ayudamos a los humanos a tomar decisiones sobre qué contenido generado usar o no. Y así poder entender que un sistema de IA generó una pieza de contenido de manera confiable. , a través de la marca de agua, es sin duda una forma de hacerlo. Creo que, en general, proporcionar a los humanos herramientas para evaluar mejor los resultados de la IA generativa frente a una amplia variedad de riesgos diferentes será realmente fundamental para empoderar a los humanos para que puedan usar con confianza IA generativa en un montón de escenarios diferentes".
¿Qué riesgos plantea la IA generativa? Si bien no podemos predecir todos los riesgos futuros, ¿cuál cree que es más probable que ocurra? ¿Así que solo le estamos pidiendo que sea más agradable? Estos sistemas se están volviendo exponencialmente más inteligentes en períodos cortos de tiempo y van a evolucionar a un ritmo más rápido. ¿Podemos incluso controlarlos en este punto? ¿Cómo impactará la IA generativa en los trabajos? ¿Será esto como las revoluciones industriales anteriores que eliminaron muchos trabajos a través de la automatización pero dieron como resultado nuevas ocupaciones a través de puestos calificados? Hablemos de procedencia. Los sistemas de IA generativa pueden simplemente robar propiedad intelectual y obras con derechos de autor porque actualmente no existe un método automatizado y estandarizado para detectar qué es generado por IA y qué es creado por humanos. ¿Cómo protegemos las obras originales de autoría? "