Comportamiento argumentativo del ChatGPT 3.5: similitudes y diferencias con la práctica argumentativa humana
El desarrollo de la inteligencia artificial (IA) ha abierto una nueva discusión sobre la capacidad lingüística de esta tecnología y su potencial impacto en todas las dimensiones de la actividad humana (Brynjolfsson y McAfee, 2014). A fin de evaluar similitudes o diferencias entre la capacidad ling...
Saved in:
| Main Authors: | , |
|---|---|
| Format: | Article |
| Language: | English |
| Published: |
Universidad de La Serena
2024-07-01
|
| Series: | Logos: Revista de Lingüística, Literatura y Filosofía |
| Subjects: | |
| Online Access: | https://revistas.userena.cl/index.php/logos/article/view/2238 |
| Tags: |
Add Tag
No Tags, Be the first to tag this record!
|
| _version_ | 1846128753614258176 |
|---|---|
| author | Cristián Noemi Padilla Cristián Santibáñez |
| author_facet | Cristián Noemi Padilla Cristián Santibáñez |
| author_sort | Cristián Noemi Padilla |
| collection | DOAJ |
| description |
El desarrollo de la inteligencia artificial (IA) ha abierto una nueva discusión sobre la capacidad lingüística de esta tecnología y su potencial impacto en todas las dimensiones de la actividad humana (Brynjolfsson y McAfee, 2014). A fin de evaluar
similitudes o diferencias entre la capacidad lingüística de la IA y la humana, este trabajo analiza específicamente el comportamiento argumentativo en términos de los puntos de vista que adopta Chat GPT, versión 3.5, frente a una situación controversial expresada en un dilema moral del Cuestionario D.I.T. (Rest, 2013) y se compara con una muestra similar de adultos humanos (Noemi, 2019), sometida a la misma tarea discursiva.
La investigación siguió un estudio comparativo de casos múltiples (Flick, 2020) a través de una metodología mixta (Johnson y Onwuegbuzie, 2004), que combinó un enfoque cuantitativo con uno cualitativo.
Los resultados muestran que el 100% de la muestra de IH emite un punto de vista (a favor o en contra), mientras que de la muestra producida por el Chat GPT, sólo el 23,4% lo hace. Los resultados animan a pensar que las diferencias encontradas se podrían explicar por la debilidad de la IA de ser sensible al contexto (falta de una competencia pragmática relevante) y la inexistencia de un proceso de autoimplicación para enfrentar tareas de razonamiento moral.
|
| format | Article |
| id | doaj-art-5f479090eb2846a0861b9ad14a94b8b9 |
| institution | Kabale University |
| issn | 0719-3262 |
| language | English |
| publishDate | 2024-07-01 |
| publisher | Universidad de La Serena |
| record_format | Article |
| series | Logos: Revista de Lingüística, Literatura y Filosofía |
| spelling | doaj-art-5f479090eb2846a0861b9ad14a94b8b92024-12-10T22:40:22ZengUniversidad de La SerenaLogos: Revista de Lingüística, Literatura y Filosofía0719-32622024-07-01341Comportamiento argumentativo del ChatGPT 3.5: similitudes y diferencias con la práctica argumentativa humanaCristián Noemi Padilla0Cristián Santibáñez 1Universidad de La Serena, ChileUniversidad Católica de la Santísima de Concepción, Chile El desarrollo de la inteligencia artificial (IA) ha abierto una nueva discusión sobre la capacidad lingüística de esta tecnología y su potencial impacto en todas las dimensiones de la actividad humana (Brynjolfsson y McAfee, 2014). A fin de evaluar similitudes o diferencias entre la capacidad lingüística de la IA y la humana, este trabajo analiza específicamente el comportamiento argumentativo en términos de los puntos de vista que adopta Chat GPT, versión 3.5, frente a una situación controversial expresada en un dilema moral del Cuestionario D.I.T. (Rest, 2013) y se compara con una muestra similar de adultos humanos (Noemi, 2019), sometida a la misma tarea discursiva. La investigación siguió un estudio comparativo de casos múltiples (Flick, 2020) a través de una metodología mixta (Johnson y Onwuegbuzie, 2004), que combinó un enfoque cuantitativo con uno cualitativo. Los resultados muestran que el 100% de la muestra de IH emite un punto de vista (a favor o en contra), mientras que de la muestra producida por el Chat GPT, sólo el 23,4% lo hace. Los resultados animan a pensar que las diferencias encontradas se podrían explicar por la debilidad de la IA de ser sensible al contexto (falta de una competencia pragmática relevante) y la inexistencia de un proceso de autoimplicación para enfrentar tareas de razonamiento moral. https://revistas.userena.cl/index.php/logos/article/view/2238ArgumentaciónInteligencia artificialChat GPTPunto de vistaInteligencia humana |
| spellingShingle | Cristián Noemi Padilla Cristián Santibáñez Comportamiento argumentativo del ChatGPT 3.5: similitudes y diferencias con la práctica argumentativa humana Logos: Revista de Lingüística, Literatura y Filosofía Argumentación Inteligencia artificial Chat GPT Punto de vista Inteligencia humana |
| title | Comportamiento argumentativo del ChatGPT 3.5: similitudes y diferencias con la práctica argumentativa humana |
| title_full | Comportamiento argumentativo del ChatGPT 3.5: similitudes y diferencias con la práctica argumentativa humana |
| title_fullStr | Comportamiento argumentativo del ChatGPT 3.5: similitudes y diferencias con la práctica argumentativa humana |
| title_full_unstemmed | Comportamiento argumentativo del ChatGPT 3.5: similitudes y diferencias con la práctica argumentativa humana |
| title_short | Comportamiento argumentativo del ChatGPT 3.5: similitudes y diferencias con la práctica argumentativa humana |
| title_sort | comportamiento argumentativo del chatgpt 3 5 similitudes y diferencias con la practica argumentativa humana |
| topic | Argumentación Inteligencia artificial Chat GPT Punto de vista Inteligencia humana |
| url | https://revistas.userena.cl/index.php/logos/article/view/2238 |
| work_keys_str_mv | AT cristiannoemipadilla comportamientoargumentativodelchatgpt35similitudesydiferenciasconlapracticaargumentativahumana AT cristiansantibanez comportamientoargumentativodelchatgpt35similitudesydiferenciasconlapracticaargumentativahumana |