Representaciones Sociales de Estudiantes y Docentes Universitarios sobre los Usos Académicos de Herramientas de Inteligencia Artificial Generativa.


Social Representations of University Students and Teachers on the Academic Uses of Generative Artificial Intelligence Tools.

 

 

 

 

Leandro Guerschberg[1]

https://orcid.org/0009-0005-9286-6358

 

Yael Estefanía Gutiérrez[2]

https://orcid.org/0009-0003-1616-2995

 

 

 

 

Guerschberg, L. y Gutiérrez, Y. (2024). Representaciones Sociales de Estudiantes y Docentes Universitarios sobre los Usos Académicos de Herramientas e Inteligencia Artificial Generativa. Campo Universitario. 5 (10) Julio – Diciembre. 2024. Pp. 1-17.

 

 

 

Fecha de recepción: 10/10/2024

Fecha de aceptación: 6/12/2024

 

 

 

 

 

Resumen: En el presente trabajo se indagó sobre las representaciones sociales de alumnos y docentes sobre la Inteligencia Artificial Generativa, que a partir de la aparición de programas de chatbot como ChatGPT, Gemini o Copilot, entre otros, está desafiando las estrategias de enseñanza y aprendizaje y abriendo nuevos debates en el campo educativo. Se desarrollaron encuestas a una muestra no probabilística compuesta por 13 docentes y 343 estudiantes de la Universidad de José C. Paz (UNPAZ). Nos preguntamos por los sentidos y significados asociados a este fenómeno, la estructura de su representación, y los posibles posicionamientos diferenciales. Los resultados indican que las representaciones sociales de los estudiantes y los docentes sobre los programas como ChatGPT o similares muestran un fuerte énfasis en su funcionalidad y eficiencia, consolidándose como el núcleo central de su representación. Sin embargo, la presencia de categorías como confianza y precisión y percepciones negativas en la periferia indica que también se consideran aspectos éticos y de confiabilidad, lo que se confirma en los sentidos o significados más concretos, vinculados a la práctica y la experiencia personal.

Palabras Clave: Representaciones Sociales, Inteligencia Artificial, IA, Chatbots, ChatGPT.

Abstract: In this work, we investigated the social representations of students and teachers about Generative Artificial Intelligence, which from the appearance of chatbot programs such as ChatGPT, Gemini or Copilot, among others, is challenging teaching and learning strategies and opening new debates in the educational field. Surveys were carried out on a non-probabilistic sample composed of 13 professors and 343 students from the University of José C. Paz (UNPAZ). We ask ourselves about the meanings and meanings associated with this phenomenon, the structure of its representation, and the possible differential positions. The results indicate that the social representations of students and teachers about programs such as ChatGPT or similar show a strong emphasis on their functionality and efficiency, consolidating themselves as the central core of their representation. However, the presence of categories such as trust and precision and negative perceptions in the periphery indicates that ethical and reliability aspects are also considered, which is confirmed in the more concrete senses or meanings, linked to practice and personal experience.

Keywords: Social Representations, Artificial Intelligence, AI, Chatbots, ChatGPT.

Introducción.

En los últimos años la tecnología ha producido profundas modificaciones en la educación superior, abriendo posibilidades para mejorar la experiencia del aprendizaje y la interacción con el conocimiento, pero también afrontando nuevos desafíos. La reciente pandemia de COVID-19 impuso la necesidad de implementar la educación virtual a distancia en lo que devino en una suerte de “virtualización forzosa”. Luego de los procesos de educación remota en la situación de emergencia, algo de virtualidad o semi presencialidad ha quedado, algo se ha incorporado, algo se ha resignificado, y las representaciones sociales de estudiantes y docentes sobre los usos de la tecnología pueden haber generado alguna ruptura sobre los saberes y creencias anteriores.

Sin embargo, estas tecnologías -a pesar de haber reconfigurado las prácticas de enseñanza y de aprendizaje- no han alterado significativamente las responsabilidades principales de los docentes, como dar retroalimentación a los estudiantes, motivarlos y adaptar el contenido del curso a diferentes grupos, incluso en entornos de aprendizaje digital. Ni las obligaciones de los estudiantes para obtener los mejores resultados posibles (García-Gaona et al, 2023).

Pero el avance de la tecnología es siempre acelerado y disruptivo. Actualmente estamos siendo testigos (y participes) de un nuevo fenómeno: la Inteligencia Artificial Generativa (IAG) basada en chatbots o bots conversacionales, que a través de modelos de aprendizaje automático están revolucionando la capacidad de crear textos, imágenes, música, entre otras aplicaciones. Esta nueva revolución es muy reciente, ya que se produce a partir de la aparición de ChatGPT en noviembre de 2022 (Alonso Arévalo y Quinde, 2023). Desde entonces, el desarrollo de los chatbots de IA generativa ha crecido a una velocidad vertiginosa, y ahora están emergiendo como herramientas de uso cada vez más frecuente en la Educación Superior. Tanto docentes como estudiantes han comenzado a usar bots conversacionales como ChatGPT (de OpenAI), Gemini (de Google) o Copilot (de Microsoft), entre otros, para una gran variedad de propósitos (Rudolph et al., 2023b).

Su impacto masivo se debe no solo a la novedad que representan -reemplazando en muchos casos a la acción de “googlear” para buscar información- sino también a la facilidad de acceso. La mayor parte de los programas de IA generativa ofrecen versiones gratuitas que, aunque con limitaciones en sus funcionalidades, pueden ser usadas en teléfonos celulares o computadoras de gama media sin necesidad de grandes conocimientos o costosas inversiones en tecnología sofisticada. Esto los convierte en herramientas al alcance de todos.

En un marco tan problemático, este trabajo -que es la continuación de una investigación más amplia sobre las representaciones sociales sobre la tecnología en educación- aborda las percepciones de estudiantes y docentes con respecto a las implicaciones del uso de los programas de IA generativa en el ámbito académico. Desde esta perspectiva, nos preguntamos por los sentidos a los que se asocia este fenómeno emergente y los posibles posicionamientos diferenciales entre ambos colectivos, para explorar la polaridad en torno a estos programas, que los ubican en un espacio aún en construcción y desarrollo donde conviven una mirada beneficiosa/utópica y otra riesgosa/distópica.

Objetivos de la Investigación.

Objetivo General.

Explorar las representaciones sociales de estudiantes y docentes de la Universidad de José C. Paz (UNPAZ) sobre los programas de IA generativa en el ámbito académico.

Objetivos Específicos.

Identificar los significados que se atribuyen al uso programas de IA generativa en el ámbito académico.

Describir los posicionamientos diferenciales en términos de adhesión y rechazo.

Establecer correlaciones entre las representaciones sociales de estudiantes y docentes.

Estado del Arte.

El uso de chatbots de IA generativa por parte de los estudiantes ha despertado el interés académico y se están publicando varios trabajos relacionados con este tema. En algunos casos, se describen las características de estos programas (particularmente de ChatGPT) y se presentan sus ventajas y desventajas o su impacto en la comunicación y en la escritura académica (Alonso Arévalo y Quinde, 2023; Baidoo-Anu y Owusu Ansah, 2023; Cope y Kalantzis, 2023; García-Gaona et al, 2023; Rudolph et al, 2023a; 2023b; Thomas, 2020; Wang et al, 2023). Otros trabajos se enfocan más en los riesgos que representan para el aprendizaje significativo (Álvarez Bernat, 2023; Giró Gràcia y Sancho-Gil, 2022), o dejan abiertos interrogantes sobre su impacto real (Anders, 2023).

Marco Teórico.

Inteligencia Artificial Generativa.

La Inteligencia Artificial Generativa (IAG), objeto de estudio del presente trabajo, es un campo dentro de la Inteligencia Artificial (IA) que se enfoca en la creación de modelos capaces de generar contenidos nuevos y realistas a partir de patrones aprendidos de conjuntos de datos existentes. Para comprender mejor qué es y cómo funciona la IAG, es necesario, en primer lugar, definir someramente a la Inteligencia Artificial (IA), que es uno de los campos de desarrollo de la informática dedicado a la creación de sistemas capaces de realizar tareas que normalmente requieren de la inteligencia humana. Algunas de las ramas más conocidas son: la Robótica, que se dedica al diseño y desarrollo de robots capaces de realizar tareas físicas de manera autónoma, con amplia aplicación en la industria; y los Sistemas Expertos, que son programas de computadora que emulan la capacidad de toma de decisiones de un experto humano, con aplicaciones en el diagnóstico médico o el asesoramiento financiero, entre otras.

Un concepto de interés es el de Machine Learning o Aprendizaje Automático, que es la rama de la IA que se enfoca en desarrollar algoritmos y modelos capaces de aprender y mejorar automáticamente a través de la experiencia. Estos modelos aprenden a partir de datos y utilizan algoritmos y técnicas como la regresión, clasificación y agrupamiento para tomar decisiones o hacer predicciones. El Deep Learning o Aprendizaje Profundo es una subrama del Machine Learning que se basa en una familia de algoritmos llamados redes neuronales artificiales, que tienen la capacidad de aprender y extraer características complejas a través de múltiples capas, lo que les permite realizar tareas como reconocimiento de imágenes o procesamiento de lenguaje natural, entre otras. De estos desarrollos surge la Inteligencia Artificial Generativa (IAG), que es un campo emergente dentro de la IA que se centra en crear sistemas capaces de generar contenido nuevo y original. Estos sistemas se utilizan para crear imágenes, música, texto y otros tipos de contenido a partir del aprendizaje no supervisado y las redes generativas adversarias o antagónicas (GAN, por sus siglas en inglés) que es una arquitectura de aprendizaje profundo que entrena dos redes neuronales diferentes para que compitan entre sí con el propósito de generar nuevos datos más auténticos a partir de un conjunto de datos de entrenamiento determinado (Puertas, 2023).

En los últimos años, la IA generativa ha experimentado avances significativos y ha expandido sus aplicaciones a una amplia gama de dominios, lo que demuestra que sus modelos pueden manejar diferentes tipos de datos. Una de las mayores aplicaciones de la IA generativa es su capacidad para producir nuevo contenido en lenguaje natural. Los algoritmos de IA generativa se están utilizando para crear textos originales, como artículos, novelas, poesías o códigos de programación, entre otros. También se utiliza para crear arte, como música, imágenes, diseño gráfico, ofreciendo nuevas formas de expresión creativa. Aunque las versiones gratuitas de los programas de IA generativa tienen funciones limitadas, tienen la capacidad de generar tablas, diagramas y resolver ecuaciones, además de texto.

El entorno de los programas de IA generativa tiene el aspecto de un chat, con un espacio para introducir una pregunta o un tema que se desea desarrollar, y a continuación aparece la respuesta o solución generada (ver Figura 1).

Las Representaciones Sociales.

El marco de análisis para comprender los significados y sentidos que los docentes y estudiantes universitarios están construyendo en torno a este fenómeno emergente y en desarrollo, que desafía las estrategias de enseñanza y aprendizaje y abre nuevos debates en el campo educativo, es el de las representaciones sociales. Serge Moscovici (1979) impulsó la teoría de las representaciones sociales, donde destaca la función simbólica y su poder para construir lo real. Las representaciones sociales son, entonces, un conjunto de ideas, saberes y conocimientos para que cada persona comprenda, interprete y actúe en su realidad inmediata. Estos conocimientos forman parte del conocimiento de sentido común. Para Moscovici (1979), "la representación social es un corpus organizado de conocimientos y una de las actividades psíquicas gracias a las cuales los hombres hacen inteligible la realidad física y social, se integran en un grupo o en una relación cotidiana de intercambios" (p.18).

De acuerdo con Moscovici (1979), la representación social es una dimensión o concepto relacionado con la organización de conocimientos que posee un grupo respecto a un objeto social. Esta dimensión enriquece las explicaciones respecto a la realidad que se forman los individuos en sus relaciones cotidianas. Esta dimensión se divide en dos aspectos:

El campo de representación, que expresa la organización del contenido de la representación en forma jerarquizada, variando de grupo a grupo e incluso al interior del mismo grupo.

La actitud, que significa la orientación, favorable o desfavorable, en relación con el objeto de la representación social. Es el componente más aparente, fáctico y conductual de la representación.

En otras palabras, las representaciones sociales son, entonces, un conjunto de ideas, saberes y conocimientos para que cada persona comprenda, interprete y actúe en su realidad inmediata. Estos conocimientos forman parte del conocimiento de sentido común. Como expresa Jodelet (1986) las representaciones sociales son “una manera de interpretar y de pensar nuestra realidad cotidiana, una forma de conocimiento social” (p.473), Pero se trata de un conocimiento espontáneo e ingenuo, opuesto al conocimiento científico, que se elabora socialmente, construyéndose a partir de experiencias, modelos de pensamiento e informaciones de carácter diverso. Es un conocimiento práctico que permite a los sujetos dar sentido a sucesos, interactuar con los otros y sobre el entorno.

En este sentido, Abric (2001) señala que:

No existe a priori la realidad objetiva, toda realidad es representada, es decir apropiada por el individuo o el grupo, reconstruida en su sistema cognitivo, integrada en su sistema de valores dependientes de su historia y del contexto social e ideológico que lo rodea. Y es esta realidad apropiada y reestructurada lo que constituye para el individuo o el grupo la realidad misma (p.12).

Es decir que las representaciones sociales no son un “reflejo” de una realidad externa al sujeto, sino de una organización significante que, aunque puede estar influida por factores contingentes propios de la situación y el contexto, supone una elaboración e interpretación. Por representación social se entiende a una forma de conocimiento de carácter práctico que se produce a partir de la interacción cotidiana con la realidad (Jodelet, 1986; Wagner y Hayes, 2011).

La teoría de las representaciones sociales se basa en un conjunto de presuposiciones que se construyen a partir de las interacciones heterogéneas entre los grupos y sus contextos específicos, produciendo una variedad de estilos de pensamiento y comunicación, algunos basados en el consenso y otros en el disenso y la contradicción. No se trata de un progreso hacia formas superiores de conocimiento o hacia las representaciones más adecuadas; por el contrario, implica la transformación de un tipo de conocimiento en otro en condiciones socio históricas y culturales específicas (Marková, 2017).

Materiales y Métodos.

Población y Muestra.

La población de este estudio está conformada por estudiantes y docentes de la Universidad Nacional de José C. Paz (UNPAZ), de la que se tomó una muestra no probabilística compuesta por 13 docentes y 343 estudiantes de las carreras de Licenciatura en Instrumentación Quirúrgica, Licenciatura en Producción de Bioimágenes, Profesorado Universitario de Educación Física y Tecnicatura Universitaria en Informática Aplicada a la Salud que están familiarizados con el uso de ChatGPT u otros programas similares, excluyendo a aquellos que no conozcan o utilicen este tipo de herramientas.

Instrumentos de Recolección de Datos.

Tomando en cuenta que es necesario acceder al contenido y la organización de la representación social sobre ChatGPT y programas similares y sus usos en el ámbito educativo, el instrumento usado en este estudio se organizó en tres partes:

Perfil sociodemográfico, para recopilar datos básicos sobre los participantes.

Evocación y jerarquización, usando como término inductor “ChatGPT” por ser el programa de IA generativa más conocido y utilizado, aunque se agregó “otros similares” para incluir otras herramientas de las mismas características. Esta sección del instrumento contempla dos instancias; en primer lugar, se solicita a los participantes que escriban 5 palabras que asocian a ChatGPT, y luego se pide que coloquen un signo + o – junto a cada palabra, según su valoración positiva o negativa, respectivamente. Este análisis ha sido inspirado en el de “asociación libre” (Abric, 2003) que estipula que a partir “de una palabra de estímulo, se le pregunta al sujeto a propósito de todas las palabras o frases que le vienen a la mente” (p.63). De esta manera, la espontaneidad de la respuesta facilita el acceso a los elementos que constituyen el universo semántico del concepto, objeto o término estudiado (Abric, 2001).

Representaciones sobre ChatGPT, donde se propone una escala Likert, donde los participantes deben indicar su grado de acuerdo con una serie de afirmaciones respecto a su uso educativo. Esto permite ubicar una periferia que, de acuerdo con Abric (1993), puede incluir sentidos más concretos y dinámicos que acomodan los sentidos centrales a diversos contextos, o expresan la particularidad de los participantes.

Análisis de Datos.

Luego de la recolección de datos, se procedió a sintetizar las respuestas obtenidas para realizar un análisis estadístico descriptivo. Se comenzó por tabular y organizar las respuestas a las preguntas, para definir tendencias, frecuencias y porcentajes en relación con el conocimiento, uso, percepciones y preocupaciones sobre los chatbots de IA generativa en la educación, identificar patrones y establecer comparaciones entre las representaciones sociales de docentes y estudiantes sobre estas nuevas herramientas. En el caso de la evocación y jerarquización, las palabras se agruparon en categorías considerando además la valoración positiva o negativa otorgada a dichas palabras.

Resultados y Discusión.

Perfil de los Encuestados.

El trabajo de campo se realizó sobre una muestra de 343 estudiantes y 13 docentes de la Universidad de José C. Paz (UNPAZ). El perfil de los estudiantes encuestados muestra que el 76% son mujeres, el 23% son varones y el 1% prefirió no manifestar su género. La edad promedio es de 26 años. El 21% cursa el Profesorado Universitario en Educación Física, 34% pertenecen a la carrera de Licenciatura en Producción de Bioimágenes, 34% a la Licenciatura en Instrumentación Quirúrgica 10% a la Tecnicatura Universitaria en Informática Aplicada a la Salud, y el 0.3% a la Licenciatura en Enfermería. En la Tabla 1 pueden observarse las frecuencias de distribución de los estudiantes respecto a las características antes mencionadas.

Variables

 

Total

%

Género

F

262

76%

M

79

23%

Prefiero no decirlo

2

1%

Edad

18-23

173

50%

24-29

70

20%

30-35

52

15%

36-41

24

7%

42-47

16

5%

48-53

8

2%

Carrera (*)

PUEF

73

21%

TUIAS

34

10%

LIQ

118

34%

LPB

117

34%

LE

1

0,29%

Tabla 1. Distribución de características individuales de los estudiantes participantes.

Nota: N = 343.

(*) PUEF: Profesorado Universitario en Educación Física – TUIAS: Tecnicatura Universitaria en Informática Aplicada a la Salud – LIQ: Licenciatura en Instrumentación Quirúrgica – LPB: Licenciatura en Producción de Bioimágenes – LE: Licenciatura en Enfermería.

Respecto a los docentes encuestados, 5 son mujeres y 8 son varones, con una edad promedio de 50 años. La distribución por carreras en las que se desempeñan muestra que 7 los hacen en la Tecnicatura Universitaria en Informática Aplicada a la Salud, 3 en el Profesorado Universitario en Educación Física, 1 en la Licenciatura en Producción de Bioimágenes, 1 en la Licenciatura en Instrumentación Quirúrgica y 1 es docente en ambas licenciaturas (Tabla 2).

Variables

 

Total

%

Género

F

5

38%

M

8

62%

Edad

35-40

3

23%

41-46

3

23%

47-52

1

8%

53-58

2

15%

59-64

4

31%

Carrera (*)

PUEF

3

23%

TUIAS

7

54%

LIQ

2

15%

LPB

2

15%

Tabla 2. Distribución de características individuales de los docentes participantes.

 

Nota: N = 13. (*) PUEF: Profesorado Universitario en Educación Física – TUIAS: Tecnicatura Universitaria en Informática Aplicada a la Salud – LIQ: Licenciatura en Instrumentación Quirúrgica – LPB: Licenciatura en Producción de Bioimágenes.

Posicionamientos y Valoración de los Chatbots.

Para analizar el primer planteo de evocación y jerarquización para cada grupo de participantes se registraron las palabras asociadas a los chatbots (ChatGPT u otros similares), según el orden en el que fueron escritas. En el caso de los estudiantes, cabe señalar que se registraron solo las respuestas que se consideraron válidas por ajustarse a la consigna. No se tabularon las respuestas erróneas (como definir qué es el programa), las incompletas, y las de los estudiantes que manifestaron que no entendieron la pregunta o que no usan ni conocen el programa. Así se obtuvieron 145 conjuntos de respuestas válidas, con un total de 725 palabras, donde 512 fueron valoradas como positivas (71%), y 213 como negativas (29%), lo que sugiere una amplia aceptación de este tipo de programas.

El análisis detallado del conjunto de respuestas de cada estudiante muestra que en 36 casos las 5 palabras fueron valoradas positivamente, y sólo en 1 todas fueron negativas; en 81 casos prevalecen las palabras positivas y en 27 las negativas (ver Tabla 4), lo que refuerza esta tendencia de aceptación (ver Tabla 3).

Palabras

Total

%

Todas positivas

36

25%

Todas negativas

1

1%

Positivas > negativas

81

56%

Negativas > positivas

27

19%

N

145

100%

Tabla 3. Valoraciones de las palabras asociadas al programa ChatGPT (u otros similares).  Estudiantes.

En el grupo de docentes encuestados se consideraron 12 conjuntos de respuestas, descartando un caso en el que solo se colocó el signo “+” como respuesta. Se registraron 60 palabras escritas por los participantes, de las cuales 28 fueron valoradas como positivas, y 32 como negativas, lo que muestra, a priori, una postura más crítica sobre estos programas. Se observa que en la mayoría de los casos (10 sobre 12 participantes) las primeras palabras escritas reflejan una valoración positiva. Solo un docente calificó todas las palabras de forma negativa. El análisis detallado del conjunto de respuestas de cada participante evidencia, no obstante, que en la mitad de los casos analizados prevalecen las valoraciones positivas (ver Tabla 4).

 

Palabras

Total

%

Todas positivas

0

0%

Todas negativas

1

8%

Positivas > negativas

6

50%

Negativas > positivas

5

42%

N

12

100%

Tabla 4. Valoraciones de las palabras asociadas al programa ChatGPT (u otros similares). Docentes.

La interpretación de los resultados anteriores sugiere que los estudiantes tienen una percepción mayoritariamente positiva sobre ChatGPT y programas similares, donde valoran positivamente a este tipo de herramientas como un apoyo en su aprendizaje, una fuente de información rápida y accesible, y una tecnología que facilita su vida académica. El hecho de que solo un pequeño porcentaje (1%) lo rechace completamente sugiere que la herramienta es vista como beneficiosa en general.

En contraste, los docentes muestran una actitud crítica hacia estos programas. Aunque la mitad de los encuestados valora más los aspectos positivos que los negativos, una gran proporción señala más aspectos negativos. La inexistencia de valoraciones completamente positivas y la presencia de valoraciones totalmente negativas reflejan preocupaciones sobre el impacto de ChatGPT en la educación, como la precisión de la información, la dependencia tecnológica de los estudiantes, o la posible disminución de habilidades críticas y de razonamiento.

 

 

Representaciones Sociales sobre los Chatbots.

El método que se utilizó para explorar la jerarquía de los elementos que componen la representación social e identificar su estructura y organización, fue el análisis prototípico y categorial de representación social, desarrollado por Vergès (1992; Vergès et al, 1994), que es uno de los más utilizados en este campo investigativo. Se consideraron dos indicadores: la frecuencia de la ocurrencia de cada palabra y el orden de evocación, combinando así datos de naturaleza colectiva (el número total de evocaciones de la palabra) con el criterio individualizado y subjetivo del orden en el cual aparece la categoría en cada persona. En función del cruce de ambos indicadores se identificó el núcleo central de la representación y los elementos periféricos de la misma, que se ubicaron en cuatro cuadrantes, de acuerdo con los siguientes criterios (Abric, 1993; 2001; 2003; Vergès, 1992; Vergès et al, 1994):

         Núcleo mayoritario: formado por las palabras más mencionadas en primer lugar. Está constituido por los elementos más importantes por su carácter de organizadores y por representar el contenido más estable, rígido y consensual de la representación social indagada.

         Núcleo minoritario: palabras menos mencionadas en primer lugar. Se consideran elementos menos importantes del núcleo de la representación, pero otorgan cierta diversidad y flexibilidad.

         Primera periferia: palabras mencionadas en segundo y tercer lugar, que completan el núcleo de la representación.

         Segunda periferia: palabras mencionadas en cuarto y quinto lugar, que constituyen los elementos más inestables y marcados por las diferencias entre los individuos.

Para facilitar el recuento y análisis las palabras se agruparon por categorías que incluyen palabras similares o con similar significado. La Tabla 5 muestra los resultados de este análisis para el grupo de estudiantes. Las representaciones sociales de los estudiantes sobre los programas como ChatGPT o similares muestran un fuerte énfasis en su funcionalidad y eficiencia, consolidándose como el núcleo central de su representación. Al mismo tiempo, hay un reconocimiento de su accesibilidad y disponibilidad y su innovación tecnológica, lo que resalta su impacto positivo en la vida cotidiana. Sin embargo, la presencia de categorías como confianza y precisión y percepciones negativas en las periferias indica que los estudiantes encuestados también consideran aspectos éticos y de confiabilidad, aunque no son lo suficientemente fuertes como para desafiar el núcleo central de la representación.

Las ideas centrales del núcleo sobre los chatbots también están presentes en la periferia, sugiriendo que estas representaciones son compartidas por el grupo, aunque con diferentes niveles de énfasis. Es destacable que en el núcleo no se hallaron palabras que pudieran encuadrarse en la categoría de riesgos, aunque sí en la periferia (asociado a “plagio”, “dependencia”, “reemplazo”, entre otras), que evidencian una preocupación latente que puede relacionarse con la actitud que para Moscovici (1979) significa la orientación, favorable o desfavorable, de la representación.

NÚCLEO

PERIFERIA

Mayoritario

1a Periferia

Categoría

Total

%

Categoría

Total

%

Funcionalidad y Eficiencia

34

23%

Funcionalidad y Eficiencia

65

22%

Accesibilidad y Disponibilidad

22

15%

Conocimiento y Aprendizaje

50

17%

Innovación y Tecnología

19

13%

Accesibilidad y Disponibilidad

32

11%

Conocimiento y Aprendizaje

18

12%

Innovación y Tecnología

62

21%

Valor y Utilidad Práctica

18

12%

Valor y Utilidad Práctica

31

11%

Minoritario

Confianza y Precisión

26

9%

Categoría

Total

%

Riesgos

21

7%

Interacción y Comunicación

12

8%

Otros (*)

3

1%

Percepciones Negativas

5

3%

2a Periferia

Otros (*)

17

12%

Categoría

Total

%

 

 

 

Funcionalidad y Eficiencia

62

21%

 

 

 

Valor y Utilidad Práctica

56

19%

 

 

 

Conocimiento y Aprendizaje

48

17%

 

 

 

Innovación y Tecnología

50

17%

 

 

 

Confianza y Precisión

24

8%

 

 

 

Accesibilidad y Disponibilidad

21

7%

 

 

 

Riesgos

10

3%

 

 

 

Interacción y Comunicación

9

3%

 

 

 

Percepciones Negativas

5

2%

 

 

 

Otros (*)

5

2%

Tabla 5. Análisis prototípico y categorial de las representaciones sociales sobre el programa ChatGPT (u otros similares). Estudiantes.

 

Nota: (*) La categoría “Otros” incluye palabras que no se encuadraban claramente en ninguna categoría, como “espeluznante” o “famoso”, entre otras.

La Tabla 6 muestra los resultados de este análisis para el grupo de docentes encuestados, donde se observa que las representaciones sobre ChatGPT y programas similares encuentran su núcleo en la funcionalidad y eficiencia, innovación, valor práctico y aprendizaje. La periferia refleja una visión más compleja y matizada del objeto de estudio. La prominencia de los riesgos en la periferia – particularmente en segunda -indica que, aunque no es el enfoque principal de la representación de los chatbots entre los docentes, es una preocupación significativa que marca las diferencias entre los encuestados.

Aquí los riesgos aparecen tanto en el núcleo (asociados a la palabra “amenaza” con una sola ocurrencia), como en la periferia donde se repiten las palabras “plagio” (con mayor frecuencia), “dependencia”, “individualismo”, “invisibiliza”, “patología”, “servidumbre” y “supervisión”.

NÚCLEO

PERIFERIA

Mayoritario

1a Periferia

Categoría

Total

%

Categoría

Total

%

Funcionalidad y Eficiencia

3

25%

Funcionalidad y Eficiencia

6

25%

Innovación y Tecnología

3

25%

Conocimiento y Aprendizaje

5

21%

Valor y Utilidad Práctica

3

25%

Riesgos

5

21%

Conocimiento y Aprendizaje

2

17%

Confianza y Precisión

4

17%

Minoritario

Valor y Utilidad Práctica

2

8%

Categoría

Total

%

Innovación y Tecnología

2

8%

Riesgos

1

8%

 

 

 

 

 

 

2a Periferia

 

 

 

Categoría

Total

%

 

 

 

Riesgos

10

42%

 

 

 

Funcionalidad y Eficiencia

4

17%

 

 

 

Innovación y Tecnología

4

17%

 

 

 

Valor y Utilidad Práctica

3

13%

 

 

 

Conocimiento y Aprendizaje

2

8%

 

 

 

Confianza y Precisión

1

4%

Tabla 6. Análisis prototípico y categorial de las representaciones sociales sobre el programa ChatGPT (u otros similares). Docentes.

Al igual que en el grupo de estudiantes, las ideas centrales del núcleo también están presentes en la periferia. En ambos casos, de la interacción de esta estructura emerge la representación social como un sistema estable y consensual pero marcado por diferencias individuales (Abric, 1993).

Conclusiones.

El trabajo se ha centrado en las representaciones sociales sobre herramientas de Inteligencia Artificial Generativa, como ChatGPT, en el entorno universitario, con el propósito de identificar los significados que se atribuyen al uso de estos programas, explorar los posicionamientos diferenciales en términos de adhesión y rechazo y establecer correlaciones entre las representaciones sociales de estudiantes y docentes, para contribuir a la creación de un cuerpo sólido de conocimiento sobre el impacto que están teniendo estas herramientas en el contexto educativo.

Los hallazgos de este estudio muestran que la aceptación del uso de chatbots es considerablemente más alta entre los estudiantes que entre los docentes. Esto sugiere que los estudiantes están más inclinados a adoptar nuevas tecnologías y perciben sus beneficios de manera más clara o directa, o por lo menos, son menos conscientes de sus riesgos potenciales. Sin embargo, también en la periferia de las representaciones de los estudiantes están presentes los riesgos que conlleva su uso y son críticos respecto a su impacto en el desarrollo de habilidades intelectuales. La percepción sobre la precisión y confiabilidad es mixta, y existe una ambivalencia en torno a la ética de su uso, lo que pone en evidencia la necesidad de establecer pautas más claras y un mayor enfoque en cómo integrar estas herramientas para su uso educativo de manera efectiva. También se observa una preocupación por la posibilidad de que los chatbots generen dependencia de la herramienta, lo que podría afectar negativamente su desarrollo personal y académico. La neutralidad respecto al uso de ChatGPT como una forma de “trampa” refleja una falta de consenso claro sobre la ética de su uso. Esto podría ser un área que necesite mayor discusión y clarificación en entornos educativos.

Los docentes, por otro lado, muestran más reservas y críticas hacia la herramienta. Esto podría reflejar preocupaciones sobre cómo ChatGPT podría estar afectando la enseñanza tradicional, la calidad del aprendizaje, o la autenticidad de las habilidades adquiridas por los estudiantes.

Tanto docentes como estudiantes reconocen la innovación que representa ChatGPT y su utilidad para tareas específicas, pero los docentes muestran una preocupación más marcada por el impacto negativo de los chatbots en el desarrollo de habilidades críticas y creativas, así como por su relación con el plagio y la falta de precisión. Esto sugiere que los docentes son más conscientes de los desafíos pedagógicos que podría plantear la integración de estas herramientas en el entorno educativo. En contraste, los estudiantes son más neutrales frente a estos riesgos, lo que podría reflejar una menor comprensión o preocupación sobre las implicaciones a largo plazo.

Esto sugiere que mientras ambos grupos ven valor en la herramienta, los estudiantes podrían estar experimentando de primera mano las limitaciones que los docentes solo perciben a nivel teórico o estructural. La preocupación de los docentes sobre los posibles efectos negativos indica cierto escepticismo en cuanto a sus beneficios educativos. La preocupación por los riesgos, como el plagio y la falta de precisión refleja su responsabilidad en guiar el aprendizaje y preservar la calidad educativa, mientras que los estudiantes pueden no estar tan conscientes o preocupados por estas cuestiones. Este análisis muestra una disparidad en la percepción del programa entre estudiantes y docentes, con los primeros mostrando un mayor entusiasmo y los segundos expresando cautela o escepticismo.

Discusión.

Debido a la novedad del tema es importante reconocer algunas limitaciones como la falta de investigaciones previas, lo que dificulta la comparación y el análisis en profundidad de los hallazgos. Esta falta de antecedentes puede implicar un mayor grado de incertidumbre en la interpretación de los resultados y en la formulación de conclusiones definitivas.

Los resultados aquí presentados reflejan una primera exploración de las representaciones sociales que están emergiendo frente a estas herramientas, y es necesario realizar más investigaciones que se complementen con diseños metodológicos cualitativos y de análisis de contenido.

Entre las limitaciones de este estudio se debe señalar la composición desbalanceada de las muestras de estudiantes y docentes. Un análisis más profundo de los posicionamientos diferenciales de los distintos grupos necesitará un diseño que contemple estas limitaciones.

 

 

Referencias Bibliográficas.

Abric, J.C. (1993). Central system peripheral system: Their functions and roles in the dynamics of social representations. Papers on Social Representations – Textes sur les représentations sociales, 2(2), 75–78. https://sites.uclouvain.be/appeldelaforet/files/original/f449f098038c2f702c0b032b3742e38e.pdf.

Abric, J.C. (2001). Pratiques sociales et représentations. Presses Universitaires de France.   

Abric, J.C. (2003). La recherche du noyau central et de la zone muette des représentations sociales. En J.C. Abric (Ed.). Méthodes d'étude des représentations sociales (pp. 59-80). Ed. Érès.

Alonso Arévalo, J. y Quinde, M. (2023). ChatGPT: La creación automática de contenidos con Inteligencia Artificial y su impacto en la comunicación académica y educativa. Revista Desiderata (22), 136-142. https://gredos.usal.es/bitstream/handle/10366/152505/MARLE%20ChatGPT.pdf?sequence=1&isAllowed=y.

Álvarez Bernat, N. (2023). Los riesgos de la inteligencia artificial en la educación: el caso del ChatGPT [Trabajo Final de Grado]. Universitat Jaume I. https://repositori.uji.es/xmlui/bitstream/handle/10234/203577/TFG%20_2023_%C3%81lvarez_Bernat_Naiara.pdf?sequence=1.

Anders, B. (2023). Is using ChatGPT cheating, plagiarism, both, neither, or forward thinking? Patterns, 4(3), 1-5. https://www.researchgate.net/publication/368902320_Is_using_ChatGPT_cheating_plagiarism_both_neither_or_forward_thinking.

Araya Umaña, S. (2002). Las representaciones sociales: Ejes teóricos para su discusión. Facultad Latinoamericana de Ciencias Sociales (FLACSO). 

Baidoo-Anu, D. y Owusu Ansah, L. (2023). Education in the Era of Generative Artificial Intelligence (AI): Understanding the Potential Benefits of ChatGPT in Promoting Teaching and Learning. Journal of AI, 7(1), 52-62. https://papers.ssrn.com/sol3/papers.cfm? id=4337484.

Becerra, G. y López Alurralde, J, P. (2021). Representaciones sociales del Big Data y la Inteligencia Artificial. Una exploración estructural. Revista Cultura y Representaciones Sociales, 16(31), 89-115. https://ri.conicet.gov.ar/bitstream/handle/11336/167170/CONICET_Digital_Nro.4b957c94-f5ac-49b5-b210-057eb2cf1499_B.pdf?sequence=2&isAllowed=y.

Cope, B. y Kalantzis, M. (2023). On Cyber-Social Learning: A Critique of Artificial Intelligence in Education, En T.  Kourkoulou, A. Tzirides, B. Cope y M. Kalantzis (Eds.). Trust and Inclusion in AI-Mediated Education: Where Human Learning Meets Learning   Machines (pp.1-32). Springer.

Eco, U. (1984). Apocalípticos e integrados. 7ª ed. Lumen.

Firat, M. (2023). What ChatGPT means for universities: Perceptions of scholars and students. Journal of Applied Learning & Teaching, 6(1), 57-63. https://journals.sfu.ca/jalt/index.php/jalt/article/view/769/575

García-Gaona, H., Hernández-Gaona, L., Gámez-Ortíz, R., y Gaona-Julian, G. (2023). Perspectivas del uso de Chatbots en la educación superior: Caso de estudio de la Universidad Tecnológica de Gutiérrez Zamora. REMCID - Revista Multidisciplinaria de Ciencia, Innovación y Desarrollo, 2(1), 32-37. https://remcid.utgz.edu.mx/Archivos/Articulosvol2/Articulo2-1-6.pdf.

Giró Gràcia, X. y Sancho-Gil, J. (2022). La Inteligencia Artificial en la educación: Big data, cajas negras y solucionismo tecnológico. Revista Latinoamericana de Tecnología Educativa, 21(1), 129-145. https://relatec.unex.es/index.php/relatec/article/view/4334/2743.

Jodelet, D. (1986). La representación social: fenómenos, concepto y teoría. En S. Moscovici (coord..). Psicología Social II. Pensamiento y vida social. Psicología Social y problemas sociales (pp. 469-494). Paidós.

Marková, I. (2017). The making of the theory of social representations. Cadernos de Pesquisa, 47(163), 358-375. https://www.researchgate.net/publication/316183755_A_fabricacao_da_teoria_de_representacoes_sociais.

Mazzuchino, G. (2023). ¿Herramienta o amenaza? Representaciones sociales de ChatGPT en argumentaciones de universitarios mexicanos. Revista Estudios del Discurso Digital (REDD), 6, 84-116. https://revistas.uva.es/index.php/redd/article/view/8287/5752.

Moscovici, S. (1979). El psicoanálisis, su imagen y su público. Huemul.

Puertas, E. (2023). Inteligencia Artificial Generativa. UEM STEAM Essentials. https://universidadeuropea.com/resources/media/documents/28_STEAM_GENERATIVE_AI_RZII.pdf.

Rudolph, J., Tan, S. y Tan, S. (2023a). ChatGPT: Bullshit spewer or the end of traditional assessments in higher education? Journal of Applied Learning & Teaching, 6(1), 342-363. https://journals.sfu.ca/jalt/index.php/jalt/article/view/689/539.

Rudolph, J., Tan, S. y Tan, S. (2023b). War of the chatbots: Bard, Bing Chat, ChatGPT, Ernie and beyond. The new AI gold rush and its impact on higher education. Journal of Applied Learning & Teaching, 6(1), 364-389. https://journals.sfu.ca/jalt/index.php/jalt/article/view/771/577.

Segovia-García, N. (2023). Percepción y uso de los chatbots entre estudiantes de posgrado online: Un estudio exploratorio. Revista de Investigación en Educación, 21(3), 335-349. https://dialnet.unirioja.es/descarga/articulo/9169090.pdf.

Thomas, H. (2020). Critical literature review on chatbots in education. International Journal of Trend in Scientific Research and Development (IJTSRD), 4(6), 786-788. https://www.researchgate.net/publication/347534935_Critical_Literature_Review_on_Chatbots_in_Education_of_the_Creative_Commons_Attribution_License_CC_BY_40.

Vergès, P. (1992). L'évocation de l'argent: Une méthode pour la définition du noyau central des représentations. Bulletin de Psychologie, 45(405), 203-209. https://www.persee.fr/doc/bupsy_0007-4403_1992_num_45_405_14128.

Vergès, P., Tyszka, T., y Vergès, P. (1994). Noyau central, saillance et proprietes structurales. Papers on Social Representations, 3(1), 3-12. https://psr.iscte-iul.pt/index.php/PSR/article/view/187/150.

 



[1] Universidad de Buenos Aires, Argentina. Contacto: leandro.guerschberg@gmail.com.

[2] Universidad Nacional de José C. Paz, Argentina. Contacto: yael.gutierrez@docentes.unpaz.edu.ar.