¿Ven los filósofos globales un futuro utópico de la IA?
por Solon Teal
Henry David Thoreau lamentó una vez que “los hombres se habían convertido en herramientas de sus herramientas”. En su contexto del siglo XIX, las herramientas eran la maquinaria agrícola y la arquitectura. Un avance rápido hasta el día de hoy, y preguntas similares sobre el control individual vuelven a estar al frente de las discusiones filosóficas sobre el acelerado desarrollo e impacto de la inteligencia artificial.
- Nick Bostrom y las utopías de la IA
- Nuevas investigaciones sobre las utopías
- Nueva investigación sobre narrativas culturales de IA
- La filosofía de la IA está en auge en las universidades
- Herramientas de formas de filosofía
- ¿Cómo podría haber utilizado Sócrates los chatbots de IA?
- Fundamentos socráticos para un análisis relacionado con la IA
- Consejos socráticos para pensar con IA generativa
- Técnicas de estímulo inspiradas en Sócrates
- Conclusión
- Sobre el Autor
Este artículo explorará tres áreas de discusión sobre IA distintas y oportunas dentro del panorama filosófico más amplio con respecto a los posibles futuros utópicos de la IA, las narrativas y creencias culturales de la IA y cómo la IA está afectando la educación filosófica en las universidades.
Nick Bostrom y las utopías de la IA
Nick Bostrom es un filósofo sueco de la Universidad de Oxford y un destacado investigador sobre el riesgo existencial. Es conocido por sus perspectivas sobre los peligros de la IA y fue director del Instituto del Futuro de la Humanidad hasta su reciente cierre . Su investigación académica es fundamental para la filosofía relativa a la IA del futuro. Sam Altman, cofundador y director ejecutivo de OpenAI, afirmó que el primer libro de Bostrom, ” Superintelligence “, fue fundamental para el tema de la alineación de la IA . En términos más generales, el problema de la IA y los clips de Bostrom es una descripción fundamental de los peligros de la IA superinteligente.
Bostrom describió recientemente los recientes avances en IA con una analogía:
“Estamos en un avión y nos damos cuenta de que no hay piloto. Vamos a intentar aterrizar esto, pero no tenemos control terrestre que nos dé instrucciones. … Nos queda algo de combustible para lograrlo, pero se nos está acabando el tiempo”.
Estas y muchas otras ideas de Bostrom sustentan las preocupaciones de quienes firmaron la carta “ Pause AI ” el año pasado. Ahora, Bostrom identifica varias acciones clave para mitigar el riesgo de la IA:
- Afirmación periódica por parte de los desarrolladores de que la IA beneficia a todos los humanos y animales. La centralización de una IA potencialmente superinteligente lo hace imperativo.
- Aumento de las pruebas del equipo rojo antes del lanzamiento. Si bien se trata de una prioridad declarada, es posible que aún no se comprendan bien las pruebas de seguridad .
- Ampliar la investigación sobre la alineación para considerar los estados morales de las mentes digitales. Si bien es hipotético, el concepto de alineación ha pasado de ser marginal a ser algo generalizado.
La perspectiva de Bostrom es oportuna, ya que se espera que la próxima versión del modelo GPT de OpenAI se lance a finales de este año .
Nuevas investigaciones sobre las utopías
Bostrom escribió recientemente “ Utopía profunda: vida y significado en un mundo resuelto ”, en el que explora posibles utopías de IA. Su “taxonomía utópica” explora varios niveles de resultados potenciales, discutidos en esta entrevista :
- Nivel 1: Una utopía gubernamental y cultural. Se trata de una mejor organización general de la sociedad existente. Los gobiernos, las organizaciones y las comunidades son muy eficaces y evitamos los peligros de hoy.
- Nivel 2: Una utopía post-escasez. Esta es una versión más radical de la actualidad, donde los humanos tienen mucho de lo que necesitan materialmente. ¿Lo quieres? Usted lo consigue.
- Nivel 3: Una utopía post-laboral. La producción de bienes no requiere trabajo humano. Los robots y otras entidades digitales hacen todo el trabajo. Elon Musk se hizo eco de esta perspectiva.
- Nivel 4: Una utopía post-instrumental. Las minucias de la vida se pueden automatizar. Por ejemplo, en lugar de hacer ejercicio se podría “tomar una pastilla” que proporcionaría los efectos biológicos necesarios.
- Nivel 5: Una utopía plástica. Una eutopía post-instrumental más extensa en la que los humanos pueden cambiarse a sí mismos de cualquier manera utilizando la biotecnología, la nanotecnología y otros aumentos avanzados.
Quién sabe cuál de estas situaciones, si es que alguna, sucede. Probablemente será una mezcla de utopía y distopía. La perspectiva única de Bostrom a menudo cambia la ventana de Overton sobre políticas gubernamentales aceptables, por lo que se espera ver nuevos argumentos de los partidarios y detractores de la IA en los próximos meses.
Nueva investigación sobre narrativas culturales de IA
Los estadounidenses tienen opiniones encontradas sobre la IA. En un estudio reciente de Pew Research, el 52% afirmó que están más preocupados que entusiasmados con los desarrollos de la IA. Las preocupaciones giran en torno a la posible deshumanización de los procesos, y el impacto negativo en los puestos de trabajo está en primer plano. Si bien la IA a menudo puede asociarse con adquisiciones de IA inteligentes, como “Skynet”, en la actualidad rara vez se mantienen temores existenciales como los de pensadores como Bostrom .
Sin embargo, el desarrollo, el uso y las narrativas de la IA no se limitan a los EE. UU., a pesar de la enorme financiación de la IA de Silicon Valley . Mistral , con sede en París, se está acercando a la calidad del modelo GPT de OpenAI, China tiene 40 modelos diferentes en la práctica y se avecinan más inversiones globales . El entrenamiento de modelos de IA se considera más un arte que una ciencia, lo que sugiere que los contextos culturales pueden moldear aún más los modelos futuros.
Stephen Cave de Cambridge y Kanta Dihal del Imperial College de Londres completaron recientemente un estudio de cinco años para comprender cómo otras culturas históricamente han visto y conceptualizado la IA. Cubierto extensamente en su libro ” Imagining AI: How the World Sees Intelligent Machines “, cuyos capítulos 16 y 19 son actualmente gratuitos, Dihal describió recientemente algunas de las conclusiones clave:
Rusia
Históricamente, Rusia veía una IA similar a una IA omnipotente y sin emociones al servicio de la humanidad, no muy diferente de “Terminator”. La Unión Soviética y la ideología comunista estuvieron fuertemente influenciadas por la filosofía cibernética anterior a la IA , lo que resultó en una apreciación rusa duradera del aumento de máquinas. Hoy en día, el énfasis está en una IA amigable, conmovedora y alineada con la cultura rusa.
Porcelana
La cultura china ha mantenido una tensión entre los avances tecnológicos y las filosofías, como el taoísmo, que rechazan la acción excesivamente controladora. Sin embargo, al igual que en la Unión Soviética, la doctrina del partido comunista chino ha resultado en un enfoque más acogedor hacia la IA. Sin embargo, hoy en día, dados los aspectos de la formación de modelos que requieren muchos recursos, algunos analistas ven conflictos entre las necesidades de la IA y la política de inversión existente de China.
Japón
Japón tiene una sólida historia de relaciones positivas con los robots. Una parte central del enfoque de construcción de varios robots únicos en las últimas décadas ha sido colocar un núcleo emocional en el centro de cualquier robot desarrollado. Como resultado, actualmente la IA se considera positiva y las historias de la llamada rebelión de robots son raras.
Corea del Sur
AlphaGo de DeepMind de Google derrotó sorprendentemente al gran maestro surcoreano Lee Sedol en el juego de Go hace años. La conmoción de AlphaGo ha llevado a una narrativa de convergencia dentro de Corea del Sur, especialmente dadas las fuertes inversiones en IA por parte de sus vecinos . Corea del Sur anunció recientemente más de 7 mil millones de dólares en financiación para nuevos chips de IA.
La filosofía de la IA está en auge en las universidades
Los profesores y estudiantes universitarios de filosofía han estado interactuando con la IA de diversas formas teóricas, educativas y prácticas. Ejemplos incluyen:
- Muchos cursos de filosofía se están volviendo más interdisciplinarios ( enlace ) y los estudiantes están profundizando en temas sobre si la creatividad y la curiosidad están centradas en el ser humano ( enlace ).
- Profesores como Michael Rota han desarrollado sus propias herramientas de inteligencia artificial para ayudar con la enseñanza filosófica ( enlace )
- Lawrence Shapiro se preocupa menos por el plagio y más por las habilidades críticas de escritura y lectura de los estudiantes ( enlace ), mientras que Antony Aumann describe la importancia de los chatbots como complemento dialéctico y de análisis de pensamiento para la instrucción del curso ( enlace )
- La Universidad de Oregón celebró una mesa redonda para discutir, entre varias ideas, la historia de la palabra robot, una consideración de la IA frente a la escritura humana y cómo los descriptores de los generadores de imágenes como “sonrisa” rara vez son culturalmente consistentes ( enlace ).
- La definición de “agencia moral” y sus ramificaciones para los humanos están cambiando rápidamente, según Randall Hart ( enlace )
Es probable que se produzcan aún más cambios en el próximo año escolar.
Herramientas de formas de filosofía
Nuestras herramientas siempre han dado forma a nuestras escuelas de pensamiento filosófico, y viceversa. El modernismo surgió con la Ilustración y la industrialización, el posmodernismo coincidió con la informatización temprana y el metamodernismo surgió con Internet. Las perspectivas desconocidas pueden convertirse rápidamente en algo común dependiendo de las condiciones culturales. Deberíamos esperar que nuestra filosofía colectiva y nuestra correspondiente visión de la IA experimenten una transformación similar en los próximos años a medida que nuestras herramientas inteligentes sigan avanzando.
¿Cómo podría haber utilizado Sócrates los chatbots de IA?
Aplique la filosofía socrática clave a sus interacciones con chatbots de IA para obtener mejores respuestas y aprendizaje.
por Solon Teal
Hace tres milenios, mucho antes de que pudiéramos consultar a un chatbot sobre las cuestiones profundas de la vida, Sócrates participaba en diálogos que recordaban las interacciones actuales con la IA. Imagínese si Sócrates, con su incesante búsqueda de la verdad a través del discurso, tuviera acceso a la IA actual. ¿Cómo navegaría en el mundo de los interlocutores digitales de chatbot con IA?
A través de una contextualización de las ideas socráticas y a través de la lente de los actuales chatbots de modelo de lenguaje grande (LLM), destilaremos algunas ideas socráticas notables en aplicaciones relevantes y prácticas para quienes usan chatbots de IA:
Fundamentos socráticos para un análisis relacionado con la IA
Sócrates (470-399 a. C.), una figura crítica de la filosofía occidental, adoptó un método de investigación incesante a través de una exploración del conocimiento basada en la dialéctica y el discurso. Conocemos su voz principalmente a través de los 35 “Diálogos” socráticos escritos por Platón. Su inquebrantable interrogatorio, incluso hasta el punto de su ejecución (que se produjo debido a la ira ateniense por su interrogatorio) se combinó con una conducta excepcionalmente estoica. Recontextualizado ahora, cuando las indicaciones de los chatbots y el estoicismo son populares, Sócrates es una inspiración para los diálogos actuales impulsados por la IA.
El método de Sócrates
Los cuatro principios básicos del método de Sócrates, según un vídeo de Rob Reich, profesor de ciencias políticas en la Universidad de Stanford, son:
- Utiliza preguntas para comprender los valores y principios de un individuo, no “hechos” ni pruebas sociales.
- Se relaciona directamente con un individuo, no para hacer argumentos abstractos o demostrar que tiene razón.
- Utiliza el malestar productivo para descubrir verdades desagradables.
- Destaca la complejidad del mundo más que dar una respuesta específica
Un elemento central de este método es el “elenchus”, una técnica que Sócrates utilizó para revelar contradicciones en las creencias de una persona. El proceso de elenchus aborda un problema desde tantas formas como sea posible, desafiando las ramificaciones morales, sociales e incluso metafóricas de un tema.
Con esta comprensión fundamental del interrogatorio socrático, podemos explorar su relevancia y aplicación en el ámbito de la IA.
Consejos socráticos para pensar con IA generativa
Ver a Sócrates desde la perspectiva de la IA arroja luz sobre los aspectos metacognitivos de la interacción de la IA y el arte del diseño rápido. Tenga en cuenta que el “ Método socrático: un manual para profesionales ” de Ward Farnsworth proporcionó un análisis muy recomendado que informó esta exploración.
Incumplimiento de una pregunta
La brillantez de Sócrates no reside en sus afirmaciones seguras, sino en su enfoque sistemático de preguntas creativas para descubrir verdades más profundas. La pregunta correcta, formulada estratégicamente, puede revelar más que la declaración más articulada. Sócrates se destacó al identificar estas cuestiones críticas que no sólo deconstruían sutilmente las visiones de la realidad, sino que proporcionaban una nueva dirección para la comprensión.
En las interacciones con chatbots, la inclinación podría ser la de expresar opiniones fijas, especialmente porque se nos anima a hablar con ellos como un ser humano, con quien a menudo compartimos opiniones. Sin embargo, al adoptar una postura de exploración mutua (considerándonos a nosotros mismos y a la IA como socios en una búsqueda de conocimiento), adoptamos una mentalidad más socrática e inquisitiva, alejándonos de posiciones rígidas.
Para inspirarse, Farnsworth compara los “Diálogos” socráticos con el “sueño” de Platón, donde Sócrates y sus interlocutores personifican las deliberaciones internas de Platón. Desde esta perspectiva, cada diálogo es una exploración de la propia psique de Platón. Quizás las conversaciones con chatbots puedan verse de manera similar.
- Perspectiva de inspiración socrática: para aprender algo en su próxima interacción con un chatbot, utilice únicamente preguntas e imagine que está hablando con un reflejo autónomo de usted mismo.
Juego de roles para la franqueza
Sócrates utilizó magistralmente el juego de roles y la personalidad en sus diálogos, encarnando varios personajes para inyectar ligereza y franqueza en las discusiones serias. Este enfoque trasciende las convenciones sociales, como la falsa formalidad o la falta de voluntad para cuestionar “la forma en que siempre se han hecho las cosas”, aportando claridad a temas complejos.
De manera similar, los juegos de roles constituyen un aspecto central de la interacción con chatbots, como se ve en muchas guías e incluso en algunas plataformas dedicadas a la idea, como Character.AI . Una perspectiva socrática fomentaría el juego de roles de los chatbots basado en la voz o el estilo más que en la experiencia profesional, especialmente un rol que sea relevante para el contexto, el tema y el participante humano. Este enfoque, centrado en quién y no en qué, puede revelar nuevos conocimientos y fomentar un diálogo más rico.
- Visión de inspiración socrática: alentar a los chatbots a asumir personalidades distintas más allá de las capacidades profesionales.
Técnicas de estímulo inspiradas en Sócrates
A continuación se presentan algunas estrategias de indicaciones específicas que integran el pensamiento socrático y las mejores prácticas actuales de diseño de indicaciones. Hay resultados de ejemplo de ChatGPT disponibles para cada uno, pero las indicaciones funcionarán en todos los modelos principales .
Activando el modo socrático
Pedir a los chatbots que ” jueguen el papel de Sócrates ” o que ” utilicen el método socrático para desafiar mi opinión ” son formas efectivas de entablar con ellos un diálogo más orientado a lo socrático más allá de su “indicador del sistema” básico, o de instrucciones y restricciones preprogramadas.
Alternativamente, puedes usar la palabra socrática específica elenchus: “ Analizar mi posición a través de elenchus ”. El uso de elenchus mantiene las instrucciones rápidas limpias y concisas y también reduce las respuestas en “inglés antiguo” que aparecen ocasionalmente si mencionas a Sócrates.
Generación de ventana de contexto previa a la tarea con preguntas
Los chatbots funcionarán mejor cuanta más información relevante esté dentro de la ventana contextual. En lugar de escribir usted mismo toda la ventana de contexto, utilice el principio socrático de “liderar con una pregunta” para incitar al modelo de IA con una pregunta preliminar.
Por ejemplo, en lugar de simplemente pedirle “escribir una carta”, primero pregunte qué debo considerar al escribir una carta y luego ajuste las recomendaciones de estilo y agregue las suyas propias.
Compare estos dos ejemplos para ver la diferencia: sin preguntas preliminares versus pregunta preliminar .
Juego de roles con voces poco comunes
Es una práctica recomendada común pedirle a un chatbot que se oriente en torno a un rol o experiencia profesional, como “juego de roles como redactor publicitario…”, “responda como Arnold Schwarzenegger …”, etc. Agregar adjetivos, incluso crear una personalidad completa y detallada, como El “obstinado Arnold Schwarzenegger ” o “un redactor irónico”, ayuda a descubrir verdades muchas veces ocultas porque resulta difícil escuchar ese tipo de tono en la sociedad “educada”.
Desafiando tus creencias
Sócrates veía la filosofía y la virtud como universales. Sin embargo, fuera de los entornos educativos formales modernos, puede resultar difícil saber dónde reiniciar el viaje filosófico. El siguiente enfoque puede proporcionarle un punto de partida al estilo socrático para identificar algunas lecturas iniciales:
- Pre-chatbot: Identifique usted mismo una creencia fundamental que tiene sobre el mundo y que cree que no es apreciada por suficientes personas (por ejemplo, ” No hay suficientes personas que respeten a las personas mayores “)
- Pregúntele lo siguiente a su chatbot: Identifique un libro fundamental y un área filosófica que uno debería leer y que respalde la siguiente posición y un libro y un área filosófica igualmente fundamental que desafíe la misma posición: (posición)
Luego puede repetir, según sea necesario, para obtener más recomendaciones.
Conclusión
El debate actual sobre la IA vuelve constantemente a una pregunta fundamental: ¿Cómo podemos vivir una vida mejor? Los empresarios de IA y los capitalistas de riesgo ofrecen una visión optimista , mientras que otros ofrecen una perspectiva más cautelosa . Quién sabe qué podría sugerir Sócrates, más allá de eso, probablemente nos alentaría a adoptar sus principios perdurables: investigación constante, curiosidad infinita y la visión de la búsqueda de la verdad como un viaje de toda la vida, ya sea con otros, con uno mismo o con un chatbot de IA.
Fuente: https://www.vktr.com/ai-ethics-law-risk/how-might-socrates-have-used-ai-chatbots/
Sobre el Autor
Solon Teal es un ejecutivo de operaciones de productos con una carrera dinámica que abarca el capitalismo de riesgo, la innovación de startups y el diseño. Es un operador experimentado, un emprendedor en serie, consultor sobre bienestar digital para adolescentes e investigador de IA, centrándose en la metacognición de herramientas y la teoría práctica. Teal comenzó su carrera en Google, trabajando de manera transversal y vertical, y ha trabajado con empresas desde el inicio hasta la etapa de crecimiento. Tiene un MBA y una maestría en innovación y estrategia de diseño de la Kellogg School of Management de la Universidad Northwestern y una licenciatura en historia y gobierno de Claremont McKenna College.