
15:00 hs. – Elementos para el estudio de la aplicación práctica de una lógica binaria que modela nuestra subjetividad – Julio Barrera-Oro (psicoanalista)
A fines de los años 30 y a comienzos de la década de los 50 dos grandes matemáticos, Alan Turing y John von Neumann escriben textos decisivos. Turing inaugura la revolución informática con su texto de 1936 “On Computable Numbers, with an Application to the Entscheidungsproblem” (A propósito de los números reales calculables, con una aplicación a la Entscheidungsproblem). Este articulo trataba de convalidar las tesis de Hilbert sobre la decidibilidad de las matemáticas, pero tomó otro sesgo, estableciendo los fundamentos teóricos de la informática moderna. Von Neumann retuvo su importancia.
En 1948 von Neumann escribe Teoría general y lógica de los autómatas. Para él los autómatas modernos son las computadoras o sus ancestros: las maquinas calculadoras. Así, la informática y la inteligencia artificial nacen de una matriz lógico-matemática. En 1950 Turing escribe otro gran artículo, “Computing Machinery and Intelligence”, que abrirá las puertas de la inteligencia artificial. Estos artículos nos hablan, quizás, del intento más importante de los últimos 70 años para introducir nuevas bases ontológicas y epistemológicas en nuestra cultura. Turing y von Neumann dieron un impulso decisivo que echó las bases del capitalismo cognitivo actual. Así que hay un gran interés en establecer una equivalencia entre el cerebro y la computadora. El cerebro es descrito por von Neumann como una maquina digital con elementos analógicos. Esto es de lo que trata von Neumann en su último libro La computadora y el cerebro. Sus consideraciones sobre la inteligencia, las computadoras y el cerebro, le dieron una base al cognitivismo conexionista y a la teoría chomskiana del lenguaje. En efecto, a finales de la década del 50, Noam Chomsky, como escribe Corteel, abrirá el camino a un enfoque algorítmico del lenguaje con su obra Syntactic Structures (1957), para la que habría una gramática universal entendida como un programa informático con las “regularidades” de la escritura algorítmica. Habría entonces una gramática generativa de un conjunto de descripciones estructurales, una gramática universal.
Inspirados en los escritos de Turing y von Neumann, en el año 1956 tiene lugar la Conferencia de Dartmouth organizada por Marvin Minsky y John McCarthy, en la cual el concepto de Inteligencia artificial aparece de la mano de McCarthy. Se trataba de ampliar y profundizar el programa bosquejado en el artículo de Turing de 1950: ¿cómo una maquina puede imitar y aprender como un humano? ¿Cómo puede utilizar el lenguaje, resolver abstracciones, utilizar conceptos y resolver problemas que hasta ahora estaban reservados a los humanos? Sobre esto se montan los transhumanistas y los posthumanistas que sostienen que la sola respuesta correcta para los problemas de la humanidad y del mundo no puede venir sino de las maquinas. Toda una cohorte de políticos, hombres de poder y empresas que están hoy en el poder o aspiran a estarlo sostienen este tipo de ideas. En todo caso, se preocupan por y se ocupan de producir agenciamientos de enunciación que forjan la subjetividad de nuestro tiempo.
No se puede decir que el concepto de informática haya ocupado mucho el espíritu y las preocupaciones de los psicoanalistas y otros compañeros de pensamiento en lo que concierne al impacto que ésta podría producir en la producción de nuestra subjetividad contemporánea. Sin embargo, Deleuze y Guattari no han dejado de advertirnos sobre esto, con signos muy fuertes, a lo largo de sus obras. Si Deleuze y Guattari pudieron trazar las líneas generales de un movimiento al que asistieron en su nacimiento, evidentemente no podían decir cómo la informática como técnica, como proceso creativo de cierta subjetividad iba a desarrollarse, a instalarse en el siglo XXI. Esa es nuestra tarea.
Entonces, sería cuestión de tratar, de mostrar cómo este pensamiento lógico implicado en la creación de la informática y la inteligencia artificial responde a una lógica binaria. Binarismo en el cual estamos embarcados con el cognitivismo en desmedro de una lógica de la multiplicidad o, como lo dice Guattari en Caosmosis, una lógica pática. Se trata, entonces, de mostrar cómo la informática y la inteligencia artificial nacen en el marco de una lógica binaria y unas relaciones biunívocas que, como Deleuze y Guattari lo señalan ya en Mil Mesetas, dominan también al psicoanálisis (el árbol del delirio en la interpretación freudiana de Schreber), la lingüística y el estructuralismo.
17:00 hs. – Café, café
17:30 hs. – La digitalización: una metáfora de la escritura – Ricardo Viscardi (Espacio Francófono-UdelaR, Casa de Filosofía)
La carencia de todo vínculo de significación que religue entre sí el procedimiento de transmisión y el mensaje emitido por una fuente divide paradójicamente, según Ives Jeanneret, toda información entre el mensaje emitido y el insumo-input registrado. Jeanneret ejemplifica esta neutralidad asemántica de lo que se entiende por tecnología de la información en la condición indescifrable que reviste el código informático para un lector en lenguaje natural, una vez que la pantalla exhibe un código fuente, como consecuencia de un defecto de transcripción informática al lenguaje natural.
El equívoco (entre algoritmo informático e información) se habría incrementado, para Jeanneret, en cuanto Jakobson retomó por su cuenta la condición asemántica del canal de comunicación, que hiciera célebre la Teoría Matemática de la Comunicación de Shannon, para postular la existencia de funciones del lenguaje. Jakobson habría naturalizado, a través de una traslación metafórica del esquema de Shannon al lenguaje natural, la identificación entre tecnología e información, en cuanto se considera al lenguaje como único soporte de una diversidad de funciones.
Si se aceptara la tesis de una condición asemántica del procedimiento de transmisión, en cuanto consignación del lenguaje natural en una formalización matemática, tal medio neutral de la transmisión nunca podría, desde un lugar privado de sentido propio, auspiciar una traslación metafórica sostenida en la condición espontáneamente semántica, dotada de sentido para todo hablante nativo, de la lengua natural. Tal imposibilidad de metaforización del código informático no sólo pondría en vilo la imputación funcionalista que Jeanneret dirige contra Jakobson, sino que asimismo desplazaría la interrogación hacia el canal asemántico postulado por Shannon, en cuanto ese medio (supuestamente privado de sentido) a su vez habría habilitado históricamente una traslación metafórica (la consideración de la Teoría Matemática de la Comunicación como Teoría de la Comunicación) y supondría, por lo tanto, una potencialidad semántica.
Privados de carga semántica propia, los signos ortográficos (comillas, guiones, paréntesis, etc.) caerían, en la índole propia del lenguaje natural, bajo la misma calidad asemántica que adjudica Jeanneret a los algoritmos informáticos. Incluso (y sobre todo) en cuanto tales signos de escritura carecen de sentido propio: el uso de comillas, por ejemplo, incluye en otro contexto (y por lo tanto altera el sentido) de toda expresión sostenida en una marca escrita, por más que a la marca que es afectada por tal signo de escritura le corresponda una carga semántica propia.
A la diferencia entre interpretación y computación que Jeanneret consigna como propia del registro informático, cabría agregar que el hiato supuestamente asemántico que incorporaría el sentido registrado interviene, a su vez, a partir del propio algoritmo matemático que archiva los datos transcriptos en un soporte digital. Tal gobierno informático del archivo es efecto, por consiguiente, de una escritura y se somete, como tal, a una división originaria (según Derrida: “no se escribe de una sola mano”). Determinado juego de fuerzas divide entre sí y en el origen a toda escritura y a fortiori a la que constituye, por medio de una programación informática, al propio artefacto.