lunes, 5 de junio de 2023

ChatGPT, valor y conocimiento

ChatGPT, valor y conocimiento

Michael Roberts

Invité a mi colega cercano y coautor de nuestro último libro, Guglielmo Carchedi, a escribir esta publicación.

En un comentario sobre la publicación del blog de Michael Roberts sobre la inteligencia artificial (IA) y las nuevas máquinas de aprendizaje de idiomas (LLM), el autor y comentarista, Jack Rasmus planteó algunas preguntas pertinentes, que me sentí obligado a responder.

Jack dijo: “¿El análisis de Marx de la maquinaria y su opinión de que la maquinaria es valor de trabajo congelado que se transfiere a la mercancía a medida que se deprecia se aplica completamente a las máquinas basadas en software de IA que tienen la capacidad creciente de automantenerse y actualizar su propio código sin intervención del trabajo humano, es decir, ¿no depreciar?”

Mi respuesta a la pregunta legítima de Jack presupone el desarrollo de una epistemología marxista (una teoría del conocimiento), un área de investigación que ha permanecido relativamente inexplorada y subdesarrollada.

Desde mi punto de vista, una de las características clave de un enfoque marxista es hacer una distinción entre ‘producción objetiva’ (la producción de cosas objetivas) y ‘producción mental’ (la producción de conocimiento). Lo que es más importante, el conocimiento debe verse como material, no como inmaterial, ni como un reflejo de la realidad material. Esto nos permite distinguir entre medios de producción objetivos (MP) y MP mentales; ambos son materiales. Marx se centró principalmente, pero no exclusivamente, en lo primero. Sin embargo, hay en sus obras muchas pistas sobre cómo debemos entender el conocimiento


Una máquina es un MP objetivo; el conocimiento incorporado en él (o desincorporado) es un MP mental. Por lo tanto, la IA (incluido ChatGPT) debe verse como MP mental. En mi opinión, dado que el conocimiento es material, las MP mentales son tan materiales como las MP objetivas. Entonces, las PM mentales tienen valor y producen plusvalía si son el resultado del trabajo mental humano realizado para el capital. Así que la IA tiene mano de obra humana involucrada. Sólo es trabajo mental.


Al igual que el MP objetivo, los MP mentales aumentan la productividad y reducen el trabajo. Su valor se puede medir en horas de trabajo. La productividad de mental MP se puede medir, por ejemplo, por la cantidad de veces que ChatGPT se vende, se descarga o se aplica a procesos de trabajo mental. Al igual que los PM objetivos, su valor aumenta a medida que se les agregan mejoras (más conocimientos) (por el trabajo humano) y disminuye debido al desgaste. Así que los MP mentales (AI) no solo se deprecian, sino que lo hacen a un ritmo muy rápido. Esta es la depreciación debido a la competencia tecnológica (obsolescencia), en lugar de la depreciación física. Y, como PM objetivo, su productividad afectará la redistribución de la plusvalía. Dado que los modelos más nuevos de ChatGPT reemplazan a los más antiguos,


Jack pregunta: “¿Esta capacidad se basa en el trabajo humano o no? Si no, ¿qué significa un ‘no’ para el concepto clave de Marx de la composición orgánica del capital y, a su vez, para su ( MR y el mío – GC ) apoyo a menudo declarado de la hipótesis de la tasa de ganancia decreciente?


Mi respuesta anterior ha sido que esta “capacidad” de hecho no solo se basa en el trabajo humano (mental), sino que es trabajo humano. Desde esta perspectiva, no hay problema con el concepto de Marx de la composición orgánica del capital (C). Dado que AI y, por lo tanto, ChatGPT son nuevas formas de conocimiento, de MP mental, el numerador de C es la suma de MP objetivo más MP mental. El denominador es la suma del capital variable gastado en ambos sectores. Entonces, la tasa de ganancia es la plusvalía generada en ambos sectores dividida por (a) la suma de PM en ambos sectores más (b) el capital variable gastado también en ambos sectores. Así, la ley de la caída tendencial de la tasa de ganancia no cambia con el MP mental, contrariamente a la sugerencia de Jack.

Para comprender mejor los puntos anteriores, necesitamos desentrañar y desarrollar la teoría implícita del conocimiento de Marx. Esto es lo que hacen los siguientes párrafos, aunque en una versión extremadamente sucinta.

Considere las primeras computadoras clásicas. Transforman el conocimiento sobre la base de la lógica formal , o la lógica booleana o el álgebra, que excluye la posibilidad de que el mismo enunciado sea verdadero y falso al mismo tiempo. La lógica formal y, por lo tanto, las computadoras excluyen las contradicciones. Si pudieran percibirlos, serían errores lógicos. Lo mismo se aplica a las computadoras cuánticas.


En otras palabras, la lógica formal explica los procesos de trabajo mental predeterminados (donde el resultado del proceso se conoce de antemano y, por lo tanto, no es contradictorio con el conocimiento que entra en ese proceso de trabajo), pero excluye los procesos de trabajo mental abiertos (donde el resultado emerge como algo nuevo, aún no conocido). 


Un proceso abierto se basa en un acopio de conocimiento potencial y sin forma, que tiene una naturaleza contradictoria debido a la naturaleza contradictoria de los elementos sedimentados en él. A diferencia de la lógica formal, la lógica abierta se basa en contradicciones, incluida la contradicción entre los aspectos potenciales y realizados del conocimiento. Esta es la fuente de las contradicciones entre los aspectos de la realidad, incluidos los elementos del conocimiento.

Volviendo a un ejemplo anterior, para procesos de trabajo mental abiertos, A=A y también A¹A. No hay contradicción aquí. A=A porque A como entidad realizada es igual a sí misma por definición; pero A¹A porque la A realizada puede ser contradictoria con la A potencial. Esta es la naturaleza del cambio, algo que la lógica formal no puede explicar.

Esto es válido también para la Inteligencia Artificial (IA). Al igual que las computadoras, la IA funciona sobre la base de una lógica formal. Por ejemplo, cuando se le pregunta si A=A y al mismo tiempo puede ser A ¹ A, Chat GPT responde negativamente. Dado que funciona sobre la base de la lógica formal, la IA carece de la reserva de conocimiento potencial del que extraer más conocimiento. No puede concebir las contradicciones porque no puede concebir el potencial. Estas contradicciones son el humus del pensamiento creativo, es decir, de la generación de nuevos conocimientos aún desconocidos. La IA solo puede recombinar, seleccionar y duplicar formas de conocimiento realizadas. En tareas como la visión, el reconocimiento de imágenes, el razonamiento, la comprensión de lectura y los juegos, pueden desempeñarse mucho mejor que los humanos. Pero no pueden generar nuevos conocimientos.

Considere el reconocimiento facial, una técnica que compara la fotografía de un individuo con una base de datos de caras conocidas para encontrar una coincidencia. La base de datos consta de una serie de rostros conocidos. Encontrar una coincidencia selecciona una cara ya realizada, es decir, ya conocida. No hay generación de nuevos conocimientos (nuevas caras). El reconocimiento facial puede encontrar una coincidencia mucho más rápido que un ser humano. Hace que el trabajo humano sea más productivo. Pero la selección no es creación. La selección es un proceso mental predeterminado; la creación es un proceso mental abierto.

Toma otro ejemplo. ChatGPT parecería emular la escritura creativa humana. En realidad, no lo hace. Obtiene su conocimiento de una gran cantidad de datos de texto (los objetos de producción mental). Los textos se dividen en piezas más pequeñas, frases, palabras o sílabas, las llamadas fichas. Cuando ChatGPT escribe una pieza, no elige el siguiente token de acuerdo con la lógica del argumento (como lo hacen los humanos). 

En su lugar, elige el token más probable. El resultado escrito es una cadena de fichas reunidas sobre la base de la combinación estadísticamente más probable. Esta es una selección y recombinación de elementos de conocimiento ya realizados, no la creación de nuevos conocimientos.

Como Chomsky et al. (2023) lo expresa: “La IA toma grandes cantidades de datos, busca patrones en ellos y se vuelve cada vez más competente en la generación de resultados estadísticamente probables, como un lenguaje y pensamiento aparentemente humanos… [ChatGPT] simplemente resume los argumentos estándar en la literatura ”.

Podría suceder que ChatGPT produzca un texto que los humanos nunca hayan pensado. Pero esto seguiría siendo un resumen y una reelaboración de datos ya conocidos. Ninguna escritura creativa podría surgir de él porque el nuevo conocimiento realizado solo puede surgir de las contradicciones inherentes al conocimiento potencial.

Morozov (2023) proporciona un ejemplo relevante: “La obra de arte Fountain de Marcel Duchamp de 1917. Antes de la obra de Duchamp, un urinario era solo un urinario. Pero, con un cambio de perspectiva, Duchamp lo convirtió en una obra de arte. Cuando se le preguntó qué tenían en común el botellero, la pala de nieve y el urinario de Duchamp, Chat GPT respondió correctamente que todos son objetos cotidianos que Duchamp convirtió en arte. 

Pero cuando se le preguntó cuáles de los objetos de hoy Duchamp podría convertir en arte, sugirió teléfonos inteligentes, scooters electrónicos y máscaras faciales. No hay indicios de ninguna “inteligencia” genuina aquí. Es una máquina estadística bien manejada pero predecible”.

Marx proporciona el marco teórico adecuado para comprender el conocimiento. Los humanos, además de ser individuos concretos únicos, también son portadores de relaciones sociales, como individuos abstractos. Como individuos abstractos, ‘humanos’ es una designación general que elimina las diferencias entre los individuos, todos ellos con diferentes intereses y visiones del mundo. Incluso si las máquinas (computadoras) pudieran pensar, no podrían pensar como humanos determinados por la clase con diferentes concepciones determinadas por la clase de lo que es verdadero y falso, correcto o incorrecto. 

Creer que las computadoras son capaces del pensamiento humano no solo es incorrecto; es también una ideología pro-capital porque eso es estar ciego al contenido de clase del conocimiento almacenado en la fuerza de trabajo y por lo tanto a las contradicciones inherentes a la generación de conocimiento.

Para obtener más información sobre una teoría marxista del conocimiento y su relación con la ley del valor de Marx, consulte mi artículo reciente, The Ontology and Social Dimension of Knowledge: The Internet Quanta Time,  International Critical Thought , 2022 y nuestro libro, Capitalism in the 21 st century , capítulo cinco.

——————————————————————————

Michael Roberts trabajó en la City de Londres como economista durante más de 40 años. Ha observado de cerca las maquinaciones del capitalismo global desde dentro de la guarida del dragón. Al mismo tiempo, fue un activista político en el movimiento obrero durante décadas. Desde que se jubiló, ha escrito varios libros. La Gran Recesión: una visión marxista (2009); La larga depresión (2016); Marx 200: una revisión de la economía de Marx (2018): y junto con Guglielmo Carchedi como editores de World in Crisis (2018). Ha publicado numerosos trabajos en diversas revistas económicas académicas y artículos en publicaciones de izquierda.

 

Marx: "Los economistas dicen: el feudalismo es artificial mientras q el capitalismo, natural. Parecen teólogos q piensan q toda religión q no es la suya es una invención de los hombres, mientras q la suya propia una emanación de Dios. Ha habido historia, pero ya no la hay"

No hay comentarios: