Comportamiento argumentativo del ChatGPT 3.5: similitudes y diferencias con la práctica argumentativa humana

El desarrollo de la inteligencia artificial (IA) ha abierto una nueva discusión sobre la capacidad lingüística de esta tecnología y su potencial impacto en todas las dimensiones de la actividad humana (Brynjolfsson y McAfee, 2014). A fin de evaluar similitudes o diferencias entre la capacidad ling...

Full description

Saved in:
Bibliographic Details
Main Authors: Cristián Noemi Padilla, Cristián Santibáñez
Format: Article
Language:English
Published: Universidad de La Serena 2024-07-01
Series:Logos: Revista de Lingüística, Literatura y Filosofía
Subjects:
Online Access:https://revistas.userena.cl/index.php/logos/article/view/2238
Tags: Add Tag
No Tags, Be the first to tag this record!
_version_ 1846128753614258176
author Cristián Noemi Padilla
Cristián Santibáñez
author_facet Cristián Noemi Padilla
Cristián Santibáñez
author_sort Cristián Noemi Padilla
collection DOAJ
description El desarrollo de la inteligencia artificial (IA) ha abierto una nueva discusión sobre la capacidad lingüística de esta tecnología y su potencial impacto en todas las dimensiones de la actividad humana (Brynjolfsson y McAfee, 2014). A fin de evaluar similitudes o diferencias entre la capacidad lingüística de la IA y la humana, este trabajo analiza específicamente el comportamiento argumentativo en términos de los puntos de vista que adopta Chat GPT, versión 3.5, frente a una situación controversial expresada en un dilema moral del Cuestionario D.I.T. (Rest, 2013) y se compara con una muestra similar de adultos humanos (Noemi, 2019), sometida a la misma tarea discursiva. La investigación siguió un estudio comparativo de casos múltiples (Flick, 2020) a través de una metodología mixta (Johnson y Onwuegbuzie, 2004), que combinó un enfoque cuantitativo con uno cualitativo. Los resultados muestran que el 100% de la muestra de IH emite un punto de vista (a favor o en contra), mientras que de la muestra producida por el Chat GPT, sólo el 23,4% lo hace. Los resultados animan a pensar que las diferencias encontradas se podrían explicar por la debilidad de la IA de ser sensible al contexto (falta de una competencia pragmática relevante) y la inexistencia de un proceso de autoimplicación para enfrentar tareas de razonamiento moral.
format Article
id doaj-art-5f479090eb2846a0861b9ad14a94b8b9
institution Kabale University
issn 0719-3262
language English
publishDate 2024-07-01
publisher Universidad de La Serena
record_format Article
series Logos: Revista de Lingüística, Literatura y Filosofía
spelling doaj-art-5f479090eb2846a0861b9ad14a94b8b92024-12-10T22:40:22ZengUniversidad de La SerenaLogos: Revista de Lingüística, Literatura y Filosofía0719-32622024-07-01341Comportamiento argumentativo del ChatGPT 3.5: similitudes y diferencias con la práctica argumentativa humanaCristián Noemi Padilla0Cristián Santibáñez 1Universidad de La Serena, ChileUniversidad Católica de la Santísima de Concepción, Chile El desarrollo de la inteligencia artificial (IA) ha abierto una nueva discusión sobre la capacidad lingüística de esta tecnología y su potencial impacto en todas las dimensiones de la actividad humana (Brynjolfsson y McAfee, 2014). A fin de evaluar similitudes o diferencias entre la capacidad lingüística de la IA y la humana, este trabajo analiza específicamente el comportamiento argumentativo en términos de los puntos de vista que adopta Chat GPT, versión 3.5, frente a una situación controversial expresada en un dilema moral del Cuestionario D.I.T. (Rest, 2013) y se compara con una muestra similar de adultos humanos (Noemi, 2019), sometida a la misma tarea discursiva. La investigación siguió un estudio comparativo de casos múltiples (Flick, 2020) a través de una metodología mixta (Johnson y Onwuegbuzie, 2004), que combinó un enfoque cuantitativo con uno cualitativo. Los resultados muestran que el 100% de la muestra de IH emite un punto de vista (a favor o en contra), mientras que de la muestra producida por el Chat GPT, sólo el 23,4% lo hace. Los resultados animan a pensar que las diferencias encontradas se podrían explicar por la debilidad de la IA de ser sensible al contexto (falta de una competencia pragmática relevante) y la inexistencia de un proceso de autoimplicación para enfrentar tareas de razonamiento moral. https://revistas.userena.cl/index.php/logos/article/view/2238ArgumentaciónInteligencia artificialChat GPTPunto de vistaInteligencia humana
spellingShingle Cristián Noemi Padilla
Cristián Santibáñez
Comportamiento argumentativo del ChatGPT 3.5: similitudes y diferencias con la práctica argumentativa humana
Logos: Revista de Lingüística, Literatura y Filosofía
Argumentación
Inteligencia artificial
Chat GPT
Punto de vista
Inteligencia humana
title Comportamiento argumentativo del ChatGPT 3.5: similitudes y diferencias con la práctica argumentativa humana
title_full Comportamiento argumentativo del ChatGPT 3.5: similitudes y diferencias con la práctica argumentativa humana
title_fullStr Comportamiento argumentativo del ChatGPT 3.5: similitudes y diferencias con la práctica argumentativa humana
title_full_unstemmed Comportamiento argumentativo del ChatGPT 3.5: similitudes y diferencias con la práctica argumentativa humana
title_short Comportamiento argumentativo del ChatGPT 3.5: similitudes y diferencias con la práctica argumentativa humana
title_sort comportamiento argumentativo del chatgpt 3 5 similitudes y diferencias con la practica argumentativa humana
topic Argumentación
Inteligencia artificial
Chat GPT
Punto de vista
Inteligencia humana
url https://revistas.userena.cl/index.php/logos/article/view/2238
work_keys_str_mv AT cristiannoemipadilla comportamientoargumentativodelchatgpt35similitudesydiferenciasconlapracticaargumentativahumana
AT cristiansantibanez comportamientoargumentativodelchatgpt35similitudesydiferenciasconlapracticaargumentativahumana