https://mathbabe.org/2023/01/11/chatgpt-neither-wise-nor-threatening/"En primer lugar, no hay que temer que ChatGPT vaya a sustituir a los humanos. No tiene un modelo de la verdad; simplemente escribe palabras y frases que se asemejan a los patrones que ha observado en el discurso histórico que se le ha transmitido. En otras palabras, no responde a una pregunta de forma reflexiva o pertinente. Cualquier tipo de reflexión que pueda observarse en sus resultados es una combinación de la sabiduría humana incorporada en sus datos de entrenamiento y el crédito proyectado que tendemos a dar a los demás cuando les oímos intentar formular pensamientos.
Pero, ¿qué pasa con los estudiantes que hacen trampas utilizando ChatGPT en lugar de escribir ellos mismos? Lo que ocurre con la tecnología es que está interfiriendo con los débiles indicadores que tenemos para medir el aprendizaje de los alumnos, es decir, los deberes y los exámenes. La verdad es que Internet ha permitido a los estudiantes hacer trampas en los deberes durante mucho tiempo, y en muchos exámenes, y ahora tienen una forma ligeramente mejor (aunque todavía imperfecta) de hacer trampas. Es sólo otro recordatorio de que, en realidad, es muy difícil saber cuánto ha aprendido alguien, especialmente si no hablamos directamente con él, sino que confiamos en un sistema automatizado o casi automatizado para que lo mida por nosotros. Supongo que en el futuro habrá muchos más exámenes orales individuales, al menos cuando se trate de pruebas de conocimientos de alto nivel. Y de hecho, habrá menos pruebas de este tipo, porque muchos tipos de "conocimientos" que antes los humanos necesitaban memorizar podrían no ser necesarios si Internet está siempre disponible.
A continuación, tampoco creo que tengamos motivos para celebrar. No hay sabiduría en ChatGPT ni en otros. Para ilustrar este punto, consideremos Galactica, una IA que fue introducida y luego retirada por Meta, la empresa madre de Facebook. Galactica fue entrenada con artículos científicos para escribir párrafos en lenguaje científico. Y lo hacía bastante bien. De hecho, me gusta esta caracterización (
https://theconversation.com/the-galactica-ai-model-was-trained-on-scientific-knowledge-but-it-spat-out-alarmingly-plausible-nonsense-195445), que era un generador de mierda.
Se suponía que Galactica ayudaría a los científicos a escribir sus artículos y a todo el mundo a buscar conocimientos científicos. A veces funcionaba, pero a menudo sólo inventaba mierda. Deep fakes pero para la ciencia.
De todos modos, hay una cosa que nunca hará: crear nueva ciencia. Y por eso no hay nada aquí por lo que emocionarse.
Otra forma de decirlo es que Galactica puede mostrarnos lo que es "fácil" de escribir artículos científicos: el lenguaje, la jerga, el estilo autoritario en tercera persona, etc. frente a lo que es difícil: las nuevas ideas. Galáctica puede hacer todo lo fácil, pero nada de lo difícil, así que ¿por qué debería impresionarnos?"