Nuestro conocimiento es necesariamente finito, mientras que
nuestra ignorancia es necesariamente infinita
Karl Popper
Nosotros los grandes conocedores somos los más desconocidos
para sí mismos
Friederich Nietzsche
Informar es dar forma
Marshall McLuhan
El dato lo produce una abstracción, no toda información es un
dato
Aliex Trujillo
1. El profesor universitario: subjetividad en proceso continuo de
interpelación
El filósofo Louis Althusser es
recordado por su concepto de interpelación definido como un prestar atención o
un “darse la vuelta” en atención a una voz que se escucha. La voz puede decir,
“¡oiga!”, “¡ehh!”, el transeúnte en un gesto automático gira su cuerpo, gira su
cabeza, para responderle a la voz como “llamado”, para atender al “solicitante”,
que en el ejemplo del filósofo francés se trata de un policía. Althusser con
esta viñeta literaria identifica al sujeto (sujetado) como aquél que responde
al llamado y expresa con su giro, con su responder “al requerimiento”, la
ligazón a la norma, al poder, a la autoridad.
En muchos momentos y desde distintos ámbitos (el
político, el económico, el cultural, la ciencia, la salud, la guerra, etc.) los
profesores nos hemos dado la vuelta y atendido el llamado que irrumpe sin
previo anuncio y nos interpela como sujetos de respuesta. Muy pocas veces
respondemos o hemos respondido como sujetos de preguntas, esta última
afirmación la desarrollamos adelante. Por ahora resaltamos que en pos de lo que
somos y nos interesa, los profesores ligamos al llamado, independientemente del
resorte (interno/externo) que nos constituye en responsables; los profesores al
girar la cabeza por el llamado quedamos sobreentendidos como los que dispensamos
respuestas. Hoy día el llamado, la voz que ha alcanzado grados más elevados de
decibeles, es el de la disrupción tecnológica en su componente de inteligencia
artificial. El mundo académico, los docentes hemos girado hacía la voz
tecnológica que a la manera de un poder ineludible ha pronunciado el “¡oiga!”.
Henos en el aquí y el ahora, asumiéndonos como sujetos,
es decir, pensando, reflexionando, describiendo, interpretando, replanteando,
repasando toda o buena parte de la problemática sobre la tecnología y la
inteligencia artificial en el proceso educativo, en el proceso formativo, en el
proceso de la enseñanza-aprendizaje.
Esta acción, esta atención que se expresa en la
tematización, información, reflexión y cuestionamiento de la irrupción del
CHAT-GPT que los profesores en muchas latitudes están asumiendo, expresa los
deberes sociales y/o profesionales y también la ocupación muchas veces
placentera y principal que tenemos (los profesores) con la educación, el saber,
y la formación.
El profesor universitario ha devenido sujeto interpelado,
lo cual es una buena y saludable señal, así, en principio, parezcan sofocantes
y dispendiosas las demandas de múltiples interpeladores: el saber, la sociedad,
la juventud, las instituciones, la misma escuela, la universidad, la ciencia,
la tecnología, etc., saludable porque indica que el pensamiento, el análisis,
la interpretación, la pedagogía y la deliberación tienen aún un lugar bajo el
cielo.
Este mundo nuestro, intensamente multifuncional requiere
de comprensión, nuestros órdenes de operación requieren ser acompañados
de órdenes de representación, Arendt H. (1958) El profesor es un sujeto
interpelado para que en despliegue de su capacidad hermenéutica propicie
horizontes comprensivos, horizontes abiertos no sólo al cómo hacemos las cosas
sino abiertos a las respuestas a la pregunta: ¿para qué hacemos las cosas? Desde
luego la capacidad hermenéutica es menos de emisión de respuestas y más de
formulación de preguntas claves, preguntas esenciales decía Martin Heidegger.
El papel del profesor universitario ya no es el de
dispensador de respuestas sino el de diseñador de preguntas claves, preguntas
que fungen como obertura de sentido, como aglutinadoras de esfuerzos reflexivos
cooperativos, como provocativas de acción comunicativa deliberativa, como
interrogantes incisivos en camino de la acción reorientadora, imaginativa,
creativa.
Este lugar de enunciación nos indica vías de abordaje de
las preguntas esenciales, la hermenéutica reconoce que el actual mundo de la
vida está inundado de millones de informaciones y respuestas disponibles, que
en lugar de configurar sentido congestionan, bloquean, neutralizan nuestras
destrezas emocionales, comprensivas y cognitivas. Este ámbito de vida de la
“era de la información” es el lugar, de todos modos, en el que hacemos pie para
tomar la palabra y formular las preguntas que el momento demanda. Por ejemplo, ¿son
sinónimos los términos: información, datos, opiniones, conocimientos?, y ¿qué
consecuencias se generaban según si la respuesta fuese afirmativa o negativa?
Estos y otros interrogantes emergen en su vital
importancia en medio de un mundo pleno de disposiciones técnicas, proliferente
de informaciones, en proceso descomunal de datificación,
un mundo conformado cada vez más desde un medio
técnico, un tecnomundo, Echeverría,
Javier (2023). A este respecto quizá sea irónico o simplemente la constatación
de una mutación sin igual, decir que, durante siglos, durante milenios, los
hombres buscaban respuestas por doquier, anhelaban las informaciones como el
sediento en el desierto, en cambio hoy, disponemos de respuestas o pseudo-respuestas
hasta la indigestión, hoy nos apabulla la información disponible y, no son las
carencias, sino las superabundancias, los síntomas de nuestras patologías, infomanías de infómatas al decir de Byung Chul Han (2021).
Desde este panorama, nos enfocamos en la asunción de
enunciados tales como que educar es hacer o propiciar la formulación de las
preguntas claves, coadyuvando a la transición (lenta, por cierto) de un
paradigma doctrinario a una praxis pedagógica de la pregunta y de la aventura
del conocimiento, es decir, el tan anhelado y escurridizo paradigma crítico.
2. La interpelación de la IA
Puede parecer que los profesores hemos girado la cabeza
para responder por dos interpelaciones específicas que se han expuesto en los
medios de comunicación. La primera, el chat-gpt va a ser usado para
hacer plagio en las labores escolares y la segunda el chat amenaza con dejar a
los docentes desempleados en un futuro próximo. Estas dos modalidades de la
interpelación descrita nos mueven a detenernos en la estructura profunda del
llamado de atención, del acto de interpelar. La interpelación está compuesta por
1) un lazo, 2) un sometimiento y 3) por una declaración.
1) El lazo, es un vínculo social, al girar la cabeza
activamos nuestra socialidad, explicitamos el tejido de interacciones que nos
constituyen, la comunicación que nos liga al otro, a los otros.
2) Además, esta conexión no es una simple vibración
físico-mecánica, el darse vuelta no es un automatismo espasmódico, el darse
vuelta es de hecho un obedecer inmediato, que viene de un ámbito intrínseco,
interiorizado. Somos sujetos que se dan la vuelta y somos sujetados porque nos
damos la vuelta, prestos a responder el llamado de la norma, de la autoridad,
del ordenamiento simbólico del que formamos parte. La comunicación nos enlaza,
pero no de cualquier forma, nos enlaza a una cultura, a un lenguaje, a unas
formas, a unos contenidos, a unas instituciones. La comunicación nos une y nos
somete a un poder que define nuestro rol, nuestro lugar social y, por ende, es
el ámbito que demuestra el que estamos conminados, sujetados y por tanto
obligados a darnos vuelta y responder.
3) A los dos anteriores atributos se suma el hecho de que
la respuesta a la interpelación es una declaración, casi que una confesión;
darnos la vuelta implica el reconocimiento de la obligación que tenemos en
responder: a) por lo que hacemos, b) por lo que no hacemos y también c) por lo
que eventualmente podríamos o deberíamos hacer.
Hemos escrito arriba que puede parecer que nuestra
atención a la IA está relacionada con la evaluación o con la amenaza de
desempleo. Es más exacto decir que esas han sido las consideraciones más de la
instancia mediática que clamorosamente ha cubierto la noticia del chatgpt,
enfatizando con sensacionalismo en estos dos asuntos. Los profesores en muchas
partes del mundo, es justo decirlo, han asumido la interpelación, tomando
distancia frente a la perentoriedad mediática y su agenda (plagio y desempleo),
valorando dimensiones más cruciales en la relación de mundos compenetrados, el
de la educación, la ciencia y la tecnología:
¿Cómo luchar contra una aplicación en apariencia indetectable
que es capaz de generar, en menos de un minuto, una redacción de 600 palabras
sobre la energía nuclear, las crisis migratorias del siglo XX o la desigualdad
de género, y hacerlo además con un lenguaje completamente natural? La irrupción
de la inteligencia artificial generativa en el ámbito educativo está dando sus
primeros pasos y ya ha supuesto un auténtico vuelco en todo el mundo. Cuando, a
finales de 2022, OpenAI lanzó el
popular ChatGPT, un
sistema de inteligencia artificial capaz de generar textos originales,
contestar preguntas y resolver multitud de tareas, les bastó cinco días para
superar el millón de usuarios, y los 100 millones en apenas dos meses. Ante el
peligro de una herramienta que facilita el plagio y las trampas, las alarmas en
escuelas y universidades no tardaron en sonar, hasta el punto de que ya son
muchos los casos (el Estado de Nueva York y las escuelas de Seattle, en EE UU,
y las universidades australianas son solo unos pocos ejemplos) en los que se
optó rápidamente por prohibir su uso. Emiliano Vittoriosi, marzo 30, El País.
En este contexto es dable y hasta necesario enlistar de
nuevo juicios y prejuicios sobre la IA, las preguntas sobre qué significa
inteligencia en la proposición inteligencia artificial, la pregunta sobre si
pueden llegar a ser autoconscientes las máquinas inteligentes y por qué han
vuelto a la palestra con tanto denuedo estos interrogantes dada la novedad del chatgpt.
Puestos a tono con una interpelación que va más allá a
los miedos por el plagio y el desempleo docente, y que nos llama a plantear el
saber, la educación y el papel profesoral, nos dedicamos a encaminar el debate
a la universidad en general, y a la Universidad Pedagógica Nacional en
particular. Se subraya una y otra vez, que el “humanismo pedagógico” no es
incompatible ni extraño a la asunción teórica, práctica, pedagógica de la
tecnología y de la IA.
Ahora bien, constatando que en grado sumo la atmósfera de
informaciones, infoesfera (Byung Chul
Han, 2021), es retadora en múltiples sentidos no podemos ignorar el fenómeno de
la proliferación instrumental, de la expansión de un hábitat tecnológico en la
tercera década del siglo XXI.
Desde esta perspectiva no sólo se admite hacer la
pregunta esencial por la esencia de la técnica a la manera de Heidegger (1953)
sino que se fustiga a la educación acuciada por las innumerables respuestas
técnico-artificiales y los datos construidos a pequeña y gran escala. La
pregunta es ¿qué le queda a la educación después que la disponibilidad técnica
genera toda la información posible?, ¿qué hacemos en la educación que vaya más
allá de la disponibilidad informativa que nos dispensa la inteligencia artificial?
Esta clase de pregunta es la que hemos caracterizado como pregunta esencial o
perteneciente al tipo de preguntas claves y, desde luego, demanda respuestas
que van más allá de esas miles que acumulamos en esta era de la disponibilidad
adictiva y bloqueadora.
3. Juicios y prejuicios sobre la IA en el contexto universitario
En
primer lugar y, en términos generales, lo técnico y la tecnología han sido
objeto de más prejuicios que juicios en el mundo universitario. No ocurre nada
distinto con la inteligencia artificial (IA).
Dejando por ahora los juicios, es dable decir que los
prejuicios son ambivalentes, algunas veces son una fase en el camino de la
reflexión y progresiva consolidación de un abordar científico, filosófico y
pedagógico de las cuestiones y, otras tantas veces, se constituyen en bloqueos
y distorsiones dañinas para el entendimiento de la realidad.
En este orden de ideas, no cabe duda que persisten en la
cultura académica universitaria cierta sospecha, desconfianza y hostilidad
hacia las palabras técnico, técnica, tecnología. Esta, llámemosla, hermenéutica
de la sospecha, se ha justificado muchas veces por cuanto era imputable a
políticas educativas tecnocráticas y que daban prioridad a dimensiones
economicistas que no consultaban con el carácter y la naturaleza de lo educativo-pedagógico.
Pero allende estas razones de peso, también hay que señalar que estas
percepciones negativas y apuradas sobre la tecnología se han heredado y
pertenecen a la matriz cultural y narrativa que separaba (separa) las ciencias
humanas (el humanismo) de las ciencias instrumentales o de los mundos técnicos
propiamente dichos (inclúyanse acá las ciencias naturales y las ciencias de
carácter ingenieril).
Desde esta segunda fuente de los prejuicios, es dable
reiterar que la escuela, la universidad, la educación en general, no han
superado los dilemas o la razón dilemática de este paradigma
simplificador y disyuntivo (Morin, E., 1990); es por ello que siguen no sólo
concibiéndose las realidades bajo este prisma sino que esta forma de ver
produce efectos y promueve un sentido de la educación, los educadores y los
educandos. Algunos de los binomios de está razón dilemática son: formación vs.
instrucción, entendimiento vs. razón, ciencia vs. pedagogía, explicación causal
vs. comprensión, nomotético vs. idiográfico, cuantitativo vs. cualitativo, lo
técnico vs. ideológico, emocional vs. racional, lo oral vs. lo escrito, lo
humano vs. lo mecánico, etc.
Esta razón dilemática no sólo opone cada término del
binomio sino que además establece una jerarquía. En horizonte histórico
teníamos, por ejemplo, la época renacentista con la primacía del humanismo, lo
cualitativo, lo racional por encima de lo técnico, lo cuantitativo y lo
racional por encima de lo instrumental. Hoy día la jerarquía puede invertirse y
se valora lo técnico instrumental sobre lo comprensivo racional.
La rutinización de lo técnico en nuestra cotidianidad funcional
y la importancia en eficacia de lo técnico en los mundos de la economía, la
administración, las instituciones políticas y educativas han generado una serie
de percepciones sobre el valor positivo o negativo para la historia humana de
las revoluciones tecnológicas. Gracias a Umberto Eco (1964) las valoraciones se
han agrupado por un lado en apocalípticos y por otro en integrados.
Los pronunciamientos más clamorosos son los de tecnófilos
y los tecnófobos, los que señalan la inminencia del fin de lo humano y los que
consideran que el salto de calidad nos ubicará en la emancipación frente a lo
rutinario gracias al avance tecnológico, permitiendo de esta forma que nos
podamos dedicar los seres humanos a lo creativo-realizativo. Ubicado dentro de
los “optimistas tecnológicos”, Bill Gates ha dicho que la IA, en concreto el chatgpt,
hará desaparecer a los profesores porque según el empresario la IA : “alcanzará
la capacidad para ser un profesor tan bueno como cualquier humano”.
Cuando decimos que “las alarmas están prendidas” nos
remitimos a la sensación de que ha llegado o se aproxima el peligro. Múltiples
voces se han escuchado y visibilizado desde el cubrimiento mediático en este
sentido, sus pronunciamientos van desde el fin de la vida, pasando por el fin
de la humanidad hasta la invasión robótica y la inminente superfluidad del ser
humano y su obrar. Una vez cabe recordar que este binomio accede a la razón
dilemática que ha sido evaluada como simplificadora y en últimas, poco
relevante en orden al diagnóstico y la prospectiva de lo humano.
En nuestros términos, estos maniqueísmos son
distorsionantes y, en buena medida, son bloqueadores no sólo de análisis
integrales sino de praxis enriquecedoras de la actividad humana en todas las
dimensiones. Más grave aún satanizar la IA, rechazarla es indicativo de que no
participamos en la realidad que ella produce y dejamos en manos de otros
países, otras instituciones su uso y la política de su uso. Cuando uno la
rechaza (la disrupción tecnológica) quiere decir, por lo general, que no
participa activamente. Es por todo esto que consignamos en el seminario que el
subtexto del libro de Eco nos daba pistas para realizar una comprensión allende
el dilema e invitarnos a transitar por un horizonte crítico en el que
reintegremos la técnica y la tecnología a la constitución de la condición
humana y, por consiguiente, entendamos lo técnico como una conditio sine qua non del proceso de hominización, del proceso antropogenético
y de los procesos ecogenéticos que se despejan desde esta asunción
crítica. Desde luego, ello conlleva un giro en los proceso de formación que
ubique la tecnología en el marco de una humanidad
aumentada (Sadin, 2018), giro que podemos denominar hacia una pedagogía aumentada inclusiva de lo
tecnológico. Dice Sadin:
Esta magaestructura con curvas de
expansión y de impregnación exponenciales, sin origen unificado y con procesos
de formación históricamente orgánicos, es indisociable, sin embargo, del advenimiento de la
cibernética y de la ciencia emblemática de la segunda mitad del siglo XX: la
inteligencia artificial. Se trata de un vasto campo de investigación que
condiciona una multitud de innovaciones industriales y que a la larga erigió,
casi en silencio, un dispositivo técnico-antropológico responsable de asegurar
nuestras acciones, optimizar nuestros actos e, incluso, anticipar nuestras
aprehensiones, siguiendo un ritmo de sofisticación que parece no tener fin. Se
ha constituido un movimiento de “delegación” no deliberado, consciente e
inconscientemente excitado por el hálito embriagador de la “virtualidad
tecnológica” que está dirigido hacia los “sistemas intuitivos” o hacia un tipo
de humanidad paralela encargada de trabajar por la “buena conducta” del
mundo. P. 26
La perspectiva critica entonces nos señala no el mundo
feliz ni la inminente destrucción de la vida y lo humano; nos seguiremos
moviendo hacia una humanidad asistida, potenciada y desafiada por la IA.
3.1 La inteligencia de la AI
La eficacia, la eficiencia, la precisión y el poder de la
técnica y de lo tecnológico no admiten cuestionamientos. La acción instrumental
del homo faber es un proceso continuo de superación y sofisticación. La
actual fase de este devenir se denomina proceso de digitalización. Antiguamente
los humanos recogían con sus manos lo que sembraban en la cosecha, hacía los
coches con sus manos, cocinaban con sus manos, hoy en grado sumo se programan
máquinas para que realicen esas actividades. Digitalizar es diseñar y ejecutar
programas que permitan que la actividad humana sea cada vez más de conducir,
manejar, dichas actividades mediante ese programar.
La digitalización se extiende e intensifica, de
actividades más o menos mecánicas como lavar platos a dimensiones complejas
como conducir automóviles, dirigir drones. Estos ámbitos son procesos de
tecnificación o tecnologización que ya tienen años de “normalización” y que en
general, no han alarmado como sí lo ha hecho el chatgpt: ¿por qué ha
ocurrido esta alerta?. Múltiples razones convergen, pero quizá la más asombrosa
y asombrada es lo que se ha denominado el carácter “autónomo” del chat y sus
distintos modelos que han recordado a la ciencia ficción de los robots que eventualmente
pueden dominar a los hombres. En lo que se refiere a la inteligencia esta
autonomía es expresada por Sadin (2018) de la siguiente manera:
Esta facultad de juicio computacional caracteriza
la singularidad casi futurista de la condición actual y en devenir de la
técnica, revelando una nueva forma de autonomización: no ya la que se
refiere a su “autodesarrollo” tendencialmente irreprimible, evocada por Jacques
Ellul, sino a aquella capaz de pronunciarse a conciencia y en nuestro
lugar, según una reciente soberanía que, desde ahora, le es
permitida. Progresivamente, se instaura una administración robotizada de
las existencias garantizada por “agentes clarividentes y empáticos” que actúan
de manera soft y “sin ruido”, y que se orientan a encargarse de manera
eficaz y armoniosa de los seres y las situaciones… P.27
Esta idea sobre que la máquina logra, no sólo ejecutar un
programa que proviene del ingeniero que externamente la entrena, sino que ella
es capaz de distanciarse del entrenamiento y generar una autoprogramación en y
gracias a un aprendizaje autónomo, es la génesis del asombro y el miedo que se
ha suscitado. La IA está aprendiendo a aprender.
El horizonte comprensivo que interesa resaltar es que
hablar de IA, de inteligencia artificial, sólo es entendible si aceptamos que ella,
la inteligencia, es un constructo de informaciones y datos que en combinatoria
y advirtiendo repeticiones o parámetros estadísticos puede generar o llevar a
cabo diversas tareas, como resumir, ampliar información, diseñar textos,
traducir textos, realizar predicciones, crear libretos o guiones, escribir
códigos y producir discursos más o menos lúcidos. Es decir, si inteligencia es
almacenar, y procesar datos, entonces sí y sólo sí, podemos predicar de estas
máquinas que son inteligentes o tienen inteligencia. Si inteligencia es
encargarle o entrenar una máquina para que con el procesamiento de una
apabullante cantidad de datos establezca, patrones de reiteración (no sólo como
descripciones sino como predicciones) y agrupamiento mediante reglas de la
estadística, entonces es dable el adjetivo de inteligentes e incluso de
autónomas en los procesamientos y en procesos de reversión que pueden
calificarse de autoaprendizaje.
Lo anterior, formulado de manera distinta, es que hemos
puntualizado: si la inteligencia es cálculo en el sentido indicado, entonces,
las máquinas lo pueden hacer muchísimo mejor que cualquier ser humano.
Ahora bien, la inteligencia es algo más complejo que este
cálculo. De modo sintético Noam Chomsky ha afirmado que a diferencia de los
motores de apps como el chatgpt que operan con base a recolección de una
enorme cantidad de datos, la mente humana puede funcionar con pequeñas
cantidades de información, mediante las cuales “no busca inferir correlaciones
brutas entre puntos (…) sino crear explicaciones” Estos motores dice Chomsky no
son “inteligentes” carecen de capacidad crítica; si bien pueden describir y
predecir “lo que es”, “lo que fue” y “lo que será”, no son capaces de explicar
“lo que no es” y “lo que no podría ser”. El Tiempo, marzo 10, 2023.
3.2 La conciencia de la IA
La asombrosa operacionalidad del chatgpt, su
capacidad para generar textos e imágenes y para contestar preguntas y resolver
multitud de tareas llevo a afirmar no sólo que era más que un modelo de
lenguaje y que poseía inteligencia sino que otros, se pronuncian y se siguen
pronunciando, sobre que el chatgpt o similares, podrían llegar a tener conciencia
de sí mismo o autoconciencia. La literatura de ciencia ficción robótica dejaría
de ser tal y la realidad del robot inteligente y consciente se aproximaría cada
vez más a ser una realidad.
Estas extrapolaciones son especulativas y forman cuerpo
con la ebullición noticiosa que el chat ha generado. En este punto es
importante reiterar la diferencia fundamental y radical entre los seres vivos y
las máquinas y la diferencia aún más marcada entre los seres humanos como
máquinas vivas (autopoiéticas) y las
máquinas artificiales (alopoiéticas).
A este respecto recordamos el trabajo de pensamiento y científico del filósofo
Friederich Nietzsche, de los biólogos Humberto Maturana y Francisco Varela y del
contemporáneo neurocientífico Anil Seth.
El filósofo de la voluntad de poder y la ciencia jovial,
Nietzsche, nos ponía de presente que la conciencia es una derivada del instinto
de sobrevivencia, un error útil y, por ende, es una resultante del proceso
evolutivo que ha construido el mundo abstracto de la lógica, el racional y el ético
de la autoconciencia, como medios o instrumentos para no perecer en la
naturaleza. Maturana y Varela consideraban que las máquinas vivas autopoiéticas gozan de autonomía, en
ellas medios y fines son lo mismo, la operatividad de los seres vivos está
dirigida a sí mismos, no se deben a nada distinto a su propia organización y,
por ende, no se requiere ni la presencia ni el accionar de un observador
externo a ellas que las dote de sentido o les diseñe su actuación, su programa,
su operar. En resumen, investigaron los biólogos chilenos, que la autopoiesis es la facultad de una
entidad física de generarse a sí misma.
Por su parte Seth fue lapidario: “las máquinas
conscientes no son posibles. La conciencia tiene más relación con estar vivos y
no con la cantidad de inteligencia” y en afirmación análoga a Nietzsche y desde
su campo científico, la neurociencia, dice que la conciencia es una función que
el cerebro crea para entender y controlar el cuerpo, con el bagaje evolutivo,
propio de especies del reino animal. John Atkinson PhD en inteligencia
artificial se expresa de manera análoga cuando dice:
Se busca que una máquina piense y
actúe como humano. Sin embargo, la máquina no sabe lo que realiza, solo es una
serie de operaciones que el observador interpreta como acciones humanoides. Ver
Corvalán, 2019.
El mismo Atkinson enlista, desde su punto de vista
experto en IA, unos atributos que el considera necesarios para la definición de
autoconciencia que quizá ninguna máquina alcanzará: 1) tienen que ser capaces
de reconocer creencias, deseos, intenciones 2) predecir el futuro 3) evaluar
consecuencias 4) seleccionar cursos de acción.
Entonces, predicar la conciencia o autoconciencia de la
IA, es un claro ejemplo de una fetichización de objetos, fenómeno muy común a
lo largo de la historia por parte de los seres humanos. Ser consciente como
atributo reflexivo, como responsabilidad ética y como sensibilidad material
(corporal) es una condición específica del ser vivo humano. Comentando el
concepto de autopoiesis de Maturana y Varela dice David Baños, 2021:
El hardware de un ordenador no
computa para conservar su propia existencia ni tampoco vuela un avión para
evitar destruirse, Es el observador externo, el ser humano, el que puede dotar
de un sentido y una funcionalidad a dichas máquinas y, por tanto, estas carecen
de autonomía.
Estas puntualizaciones se han manifestado y se hace
necesario traerlas a colación en este boletín porque se han propagado una serie
de enunciados exorbitantes sobre el poder (actual y potencial) y sobre los
rasgos (existentes y por adquirir) de las máquinas de la IA. Los informativos
de toda índole, los canales de televisión haciendo maratones de las películas
de la ciencia ficción sobre robots, los expertos recordando a los grandes
autores de la literatura del género de ficción, etc, todos a una han
contribuido a aumentar especulaciones más que conocimientos sobre los chats
como el gpt y otros.
Para finalizar este apartado, leamos una respuesta del chatgpt
sobre este tema de la conciencia, respuesta que indica un entrenamiento
prudente por parte de los ingenieros (quizá para bajarle al tono de alarma que
ha cundido con estos robots) relacionado con la complejidad de esta dimensión;
se le pregunta al chat: “¿quién eres”?:
Como un modelo de lenguaje
entrenado por OpenAI, puedo procesar el lenguaje y hablar de manera similar a
un ser humano. Esto significa que puedo comprender preguntas y proporcionar
respuestas coherentes utilizando el lenguaje humano. Sin embargo, a diferencia
de un ser humano, no tengo conciencia de mí mismo ni la capacidad de pensar y
razonar de manera autónoma. Soy simplemente un programa de computadora diseñado
para imitar el lenguaje humano. Pérez. Colomé, 2022:
3.3 La estructura y funcionamiento del CHAT GPT
El ChatGPT es un modelo de lenguaje diseñado,
programado y entrenado por ingenieros expertos en IA. Como tal a este motor, a
este modelo de lenguaje se le puede enseñar a realizar tareas específicas,
utilizando una cantidad ingente de datos y un algoritmo de aprendizaje
automático (machine learning). El conjunto de datos no sólo se almacena
sino que, el entrenamiento del modelo desde el enfoque de aprendizaje
automático, analiza los datos e identifica patrones y relaciones entre ellos.
Con estos patrones, identificados mediante estadísticas
que el motor realiza el chat es capaz de aprender a realizar tareas similares a
las que se le presentaron inicialmente en los datos de entrenamiento. Estos
desempeños son observados permanentemente por los programadores (ingenieros)
que son los evaluadores del rendimiento del sistema y que sobre la base de
dichas observaciones-evaluaciones hacen los ajustes requeridos o decididos.
Dado este entrenamiento este modelo de IA llamado chatgpt
tiene una serie de habilidades y puede realizar una serie de tareas mejor que
una persona. Puede procesar enorme cantidad de datos a una velocidad y
precisión inigualables por un ser humano. Identifica patrones y relaciones
complejas de estas cantidades astronómicas de datos, permitiendo una pluralidad
de modalidades de clasificación de información. Las destrezas no acaban con lo
anterior, el chatgpt puede realizar tareas repetitivas lo que, desde luego,
es aprovechable para labores de automatización de procesos y para la dimensión
robótica. Y si fuera poco, la máquina juega juegos (por ejemplo ajedrez) y hace
traducciones automáticas, etc.
Habilidades y realización de tareas hasta hace unos pocos
años inimaginables y que acrecientan y son constatación del ingenio humano como
homo faber asombroso.
Ahora bien, dicho lo anterior, también debemos referirnos
a las falencias que se han identificado en la máquina de marras. Empezando por
el hecho incontestable de que así el chat pueda dar respuestas coherentes y
muchas veces sorprendentes en términos de construcción discursiva e
“intelectiva”, es la respuesta de una máquina y por ende se deben o tienen que
activar inmediatamente procedimientos de comprobación de sus respuestas, máxime
que los programadores no incluyen, hasta el momento, el que el chat revele las
referencias, las fuentes, las bibliografías, las teorías y los autores que se
han utilizado para componer dichas respuestas.
En adición a lo anterior, la respuesta estructurada no es
necesariamente sinónima de precisa y confiable. El chat “miente” con la misma
seguridad con la que dice o responde cosas ciertas. En el mismo orden de ideas
las respuestas del modelo tienen características que se han subrayado como los
sesgos de toda índole (sexuales, raciales, étnicos, de clase) que, por
supuesto, atribuyen a sus respuestas, muchas veces, un carácter ofensivo e
insensible. También, a menudo, la falta de contexto de la que adolece un modelo
de lenguaje de esta naturaleza, es decir entrenado como programa abstracto
basado en datos y algoritmos nos conduce a respuestas erróneas o inapropiadas. Ni
hablar del tema ético que forma parte de una comprensión profunda de lo humano
que como dijimos arriba una máquina nunca alcanzará.
Además se ha dicho que el chat tiene “alucinaciones” y
que funciona en una suerte de explotación, “vampirización” de los usuarios. En
cuanto al primer asunto, se trata de un modelo de lenguaje que atendiendo a las
preguntas formuladas da respuestas automáticas que se asumen como veraces ya
que en sus respuestas aparenta saber cualquier tema y como sofista robótico
y fetiche cultural tiene entonces la capacidad de convencernos, de
persuadirnos. Una simple profundización nos hace transitar por la duda, y se
empieza a advertir que el chat simula, habla de oídas, ya lo dijimos arriba no
sabe de lo que habla. Es un lorito. El chat está programado para no reconocer
que no está diciendo la verdad. Es decir que uno de sus megaerrores es que
tiene lo que se conoce como “alucinaciones”, tiene siempre pretensiones de
verdad. Si no sabe algo se lo inventa. Como lo dijo Chomsky antes citado, el
chat no es capaz de explicar “lo que no es”, “lo que no podría ser”.
El otro tema es que los empresarios dueños de estos chats
se benefician en términos económicos y en términos de mejoramiento tecnológico
de su máquina sin que la contraprestación sea equivalente con los usuarios. Los
prompts, las frases y preguntas que utilizamos para darle dirección a
estos modelos de lenguaje y, en general, la interacción que con ellos
realicemos es absorbida por el chat como una fuente de captación que enriquece
al modelo y que sofistica toda su operacionalidad. No es nueva esta extracción
por las máquinas ya hemos tenido capítulos muy dicientes al respecto con el
Facebook y el affaire CambridgeAnalytica.
3.4 En el contexto escolar
universitario: ¿alfabetización tecnológica o cultura tecnológica?
Es
indudable que es deficiente el conocimiento y la instrucción con respecto a la
tecnología y su acelerada innovación en los contextos escolares universitarios.
El lenguaje predominante hoy día es el de la búsqueda y promoción de la
alfabetización tecnológica, expresión frente a la que muchos guardan distancia
porque se considera demasiado instrumental o porque se concibe como tarea a
realizar muy elemental. Podríamos conciliar esta denominación con otra más
comprehensiva y es la de la cultura tecnológica o, en el tono de este boletín,
la búsqueda de complementariedad y coimplicación entre las culturas de las
ciencias naturales, las ciencias humanas y el campo tecnológico.
Supuesta la decisión de integración en la universidad de
estos tres ámbitos, optamos entonces por la semántica de la cultura
tecnológica. Esta dimensión requiere de una normalización en nuestros procesos
de formación y profesionalización que deben empezar con niveles básicos como el
de la alfabetización digital y/o tecnológica.
En esta perspectiva la integración tiene varios retos que
se plasmarían en una política institucional universitaria hacia la
normalización de una cultura tecnológica que empiece por una oferta variada de
diplomados, cursos, seminarios, coloquios, congresos y asignaturas, acciones
todas encaminadas a la alfabetización y familiarización con lo tecnológico y
sus lenguajes. Desde muchas latitudes se ha insinuado temas y estrategias para
ir asimilando e integrando, en el quehacer cotidiano universitario, la cultura
tecnológica.
Dichos temas y metodologías van desde los que recomiendan
acciones puntuales como la disposición en la universidad de “navegadores
limpios” para que los estudiantes y profesores no se vean inducidos o
condicionados por navegadores de uso frecuente (es decir con las búsquedas
previas) hasta los que consideran que lo que está sucediendo es de tal
magnitud, (calificable de una nueva era tecnológica, cuyo primer episodio es el
chatgpt como ilustración de lo que es una tecnología inteligente, una
industria 5.0) que reclama un cambio estructural y general del sistema
educativo.
Como sea y entendiendo que estas asunciones son
procesuales enumeramos una serie de tareas por continuar o por iniciar en la
escolaridad de la UPN. En caso de que se haga concreto el doble programa uno de
los núcleos comunes necesario es el tecnológico. Tendría que incluir: enseñar a
programar, conocimiento sobre lo que es un algoritmo, aprendizaje de búsquedas
(no olvidemos que en general los estudiantes obtienen la mayor parte de su
material a través de buscadores como Google o en Wikipedia), se requiere entender
la lógica de estos buscadores que, ya se sabe son IA.
A la larga el uso de IA nos replantea asuntos que se han
convertido en controversias gigantescas como el de la racionalidad, la
legitimidad y la pertinencia de las evaluaciones masivas y de la educación
centrada en los denominados estándares de calidad o unidades de aprendizaje,
etc.
Las controversias y las problemáticas educativas cobran
de nuevo protagonismo con la disrupción del chatgpt. Vuelve el debate
sobre la memorización, el debate sobre la identidad y el papel del profesor, la
revisión de definiciones como conocimiento, datos, informaciones, opiniones,
enseñanza, aprendizaje, evaluación, etc., etc.
Evitando caer en el paradigma dilemático, reduccionista,
simplificador y disyuntor, es propicio una suerte de “optimismo pedagógico” (de
Zubiría, J., 2023), en el sentido de aclarar y afirmar que hoy más que nunca se
necesitan los profesores, sus iniciativas, su experiencia, su disposición
comunicativa e interactiva, su comprensión de saberes y su pasión por la
educación, la cultura y la ciencia.
4. La pregunta por la IA y la metafísica de la proliferación instrumental
Vamos terminando este boletín y
nos referiremos a un último tema inspirados en el libro del profesor Germán
Carvajal. Es el tema filosófico en el que (Carvajal 2023), ha renovado las
pregunta por la técnica en la acepción de metafísica de la proliferación
instrumental. Carvajal vuelve a preguntas esenciales, a interrogantes que tienen
o tendrían que formar parte del repertorio y de la caracterización del profesor
universitario interpelado por IA: ¿qué es el artefacto técnico? ¿qué es la
razón instrumental? ¿por qué los seres humanos somos seres de la proliferación
instrumental?
Volver a la filosofía primera, inspirarse en Aristóteles
es el camino para pensar la técnica y la constitución del sujeto como
substancia primera al decir del estagirita. Los dos soportes de la
proliferación instrumental son el sujeto de un lado y la materia o lo material
del otro; ambos imbricados posibilitan la generación del mundo. El sujeto, el
hombre, el ser humano y sus materiales (barro, papiro, papel, lo digital).
¿Y qué es un instrumento?
Entendamos por instrumento un objeto que le permite a un sujeto tratar con
otro objeto…Digamos que la relación originaria del sujeto con el
instrumento es una relación entre dos cuerpos: llamemos al primer cuerpo, el apetente,
al segundo, res satisfaciente. Llamemos también, manipulación a
esta primera relación. Un cuerpo, el apetente, manipula a otro cuerpo, al satisfaciente.
Antes que cognitiva, en primera instancia, la relación de sujeto a objeto es
pragmática: es un tipo de acción manipulatoria de un cuerpo por parte de otro,
y no, por supuesto, por mor del conocer sino por mor del consumir. P.132
Desde esta teoría del homo consumans, la filosofía
primera indica que la técnica no es un producto de la contemplación sino una
realización instrumental o de la acción, del consumo del mundo, del moldear el
mundo de un cuerpo (el sujeto) con otro cuerpo (el instrumento). A tono con
Nietzsche y con Seth, arriba destacados, la primacía ontológica no es un
sujeto metafísico sino un sujeto actuante.
El chatgpt
es una máquina, sin importar el grado de sofisticación tecnológica (hardware
y software) es un instrumento y, por ello, en su recepción educativa y
pedagógica estamos desafiados a hacer una crítica de la razón como instrumento,
una crítica de la razón instrumental que nos recuerda algunas de las
perspectivas desarrolladas por la denominada Escuela de Frankfurt,
específicamente por Max Horkheimer, 1947.
REFERENCIAS
Althusser, Louis,
(2010), “Tres notas sobre la teoría de los discursos”, en Escritos sobre
psicoanálisis. Freud y Lacan. México: Siglo XXI.
Arendt; Hannah
(1958), La Condición Humana, Edit. Paidós, Barcelona.
Baños, Abril, David,
(2021), Autopoiesis y máquinas vivas, La máquina de oráculo.
Carvajal, Germán,
(2023), La metafísica de la proliferación instrumental, Edit., Aula de Humanidades.
Corvalán, Francisco,
(2019), ¿Podrán las máquinas tener conciencia algún día?, Tomad de La Tercer,
Enero 14 de 2019.
Chomsky, Noam,
(2023), La alarmante opinión de Noam Chomsky sobre la Inteligencia
Artificial de ChatGPT, tomado de Revista La Tercera, Abril 27, 2023.
Eco, Umberto,
(1964), Apocalípticos e integrados, Edit. Debolsillo, Random House Mondadori.
Echeverría, Javier y
Almendros, Lola, (2023), Tecnopersonas, Cómo nos transforman las tecnologías,
Grama ediciones, Argentina.
Gates, Bill, (2023), Bill Gates
pone fecha a la desaparición de profesores por culpa de la IA; Tomado de
Revista Semana, Abril 25, 2023.
Han, Byung Chul,
(2021), Las no cosas, Edit. Taurus, Madrid.
Heidegger, Martin,
(2021), La pregunta por la técnica, Edit. Herder, Barcelona.
Horkheimer, Max,
(2010), Crítica de la razón instrumental, Edit. Trotta, Madrid.
Maturana, Humberto y
Varela, Francisco, (1994), De máquinas y seres vivos, autopoiesis: la
organización de lo vivo, Edit. Universitaria, Santiago de Chile.
Morin, Edgar,
(1990), Introducción al pensamiento complejo, Edit. Gedisa, Barcelona.
Meneses, Nacho,
ChatGpt y educación: (2023), ¿un nuevo enemigo o aliado de los profesores?,
tomado de El País de España, Marzo 30, 2023.
Pérez, Colomé,
Jordi, (2022), El País de España.
Nietzsche,
Friederich, (1985), La gaya ciencia, Monte Avila Editores, Caracas.
Sadin, Eric (2018),
La humanidad aumentada, la administración digital del mundo, Edit. Caja Negra,
Buenos Aires.
Zubiría Samper, J.d.,
(2023), ¿Serán desplazados los docentes por la inteligencia artificial?, Tomado
de el periódico El Espectador, 8 de Mayo de 2023.