Lo último: El impacto del modelo grande de ChatGPT en la investigación económica

texto

Con respecto al contenido del texto a continuación, el autor : Chen Siyu, Economía Educativa, Southwest University, correo electrónico: [email protected]

Anton Korinek, Modelos de lenguaje y automatización cognitiva para la investigación económica. NBER, 2023 .

Los modelos de lenguaje extenso (LLM) como ChatGPT tienen el potencial de revolucionar la investigación en economía y otras disciplinas. Describo 25 casos de uso a lo largo de seis dominios en los que los LLM comienzan a ser útiles como asistentes de investigación y tutores: ideación, escritura, investigación de antecedentes, análisis de datos, codificación y derivaciones matemáticas. Proporciono instrucciones generales y demuestro ejemplos específicos sobre cómo aprovechar cada uno de estos, clasificando las capacidades de LLM de experimentales a muy útiles. Presumo que los avances en curso mejorarán el rendimiento de los LLM en todos estos dominios, y que los investigadores económicos que aprovechen los LLM para automatizar microtareas serán significativamente más productivos. Finalmente, especulo sobre las implicaciones a largo plazo de la automatización cognitiva a través de LLM para la investigación económica.

" Modelos de Lenguaje y Automatización Cognitiva para la Investigación Económica"

Tabla de contenido

1. Resumen

Este documento divide las funciones de los modelos de lenguaje a gran escala en seis áreas: ideación, redacción, investigación de antecedentes, análisis de datos, programación y derivación matemática. Se utilizan 25 casos para explicar el papel y la practicidad de los modelos de lenguaje a gran escala LLM en estos seis áreas. Este documento divide el papel de los LLM en 3 niveles: experimental, útil y muy útil. Este documento plantea la hipótesis de que el desarrollo continuo de LLM mejorará el rendimiento de los LLM en los seis dominios anteriores, lo que permitirá a los investigadores económicos que utilizan LLM automatizar microtareas para aumentar en gran medida la productividad. Finalmente, este documento predice la importancia a largo plazo de la automatización cognitiva mediante el estudio de LLM en economía.

2. Introducción

1. Antecedentes de la investigación

Los avances recientes en LLM a gran escala podrían revolucionar la investigación en economía y otras disciplinas. LLM acaba de romper el cuello de botella y se ha vuelto útil en una amplia gama de tareas cognitivas. El 28 de noviembre de 2022, el modelo GPT3.5 lanzado por Open AI ganó más de 100 millones de clientes dentro de los dos meses posteriores a su lanzamiento, y GPT3 .5 puede 14 días para producir un volumen de texto equivalente a una obra impresa humana. (Thompson). Google y Microsoft planean dar a los usuarios acceso a LLM.

2. Propósito de la investigación

1) Mejorar la productividad

Este artículo ilustra 25 ejemplos de modelos LLM modernos basados ​​en investigaciones recientes. Después de los experimentos del autor, este documento divide las funciones de LLM en seis tipos: ideación, redacción, investigación de antecedentes, análisis de datos, codificación y derivación matemática. Este artículo proporciona instrucciones para usar estas funciones y las demuestra con ejemplos concretos. Además, este artículo intenta clasificar cada característica de LLM de experimental a muy útil. (Consulte la Tabla 1 en la página 29). Este documento espera que esta descripción ayude a otros investigadores a utilizar las capacidades de LLM. Actualmente, el documento considera que el LLM es la herramienta más útil, que automatiza pequeñas "microtareas" con las que los investigadores se involucran muchas veces durante el día, pero que son demasiado pequeñas para asignarlas a asistentes de investigación humanos. LLM es adecuado para tales tareas debido a su alta velocidad y bajos costos de transacción. Además, el LLM ayuda con las tareas de codificación y análisis de datos, así como con la ideación y la escritura. Los investigadores pueden aumentar significativamente su productividad incorporando LLM en su flujo de trabajo.

2) Predecir la función del futuro LLM

Estudiar la función actual de los LLM puede predecir las funciones de futuras generaciones de LLM. En los últimos años, la cantidad de cómputo (poder de cómputo) utilizado para capacitar a LLM de vanguardia se ha duplicado en promedio cada seis meses, lo que ha provocado un rápido crecimiento en las capacidades de LLM. Se espera ampliamente que estos avances continúen y que pronto se lancen sistemas LLM más robustos. A más largo plazo, este documento plantea la hipótesis de que LLM puede entrar en una era de automatización cognitiva, lo que podría tener profundas implicaciones para el progreso científico en economía y otras disciplinas. Además, esta automatización cognitiva también puede tener claras implicaciones para el valor del trabajo cognitivo.

3. Revisión de literatura

1) Subestimar la función de LLM

Bender considera los LLM como "loros aleatorios" (Bender et al., 2021) o "autocompletado avanzado". Según la investigación de Thompson, "un expresidente de Mensa International informó que ChatGPT logró una puntuación de 147 en la prueba de coeficiente intelectual del idioma". poderoso.

2) Sobrestimar la función de LLM

Otros investigadores creen que ChatGPT es inteligencia general artificial (AGI), es decir, inteligencia artificial. LLM puede producir texto de estilo autorizado cuando el contenido es completamente incorrecto, lo que puede engañar a los lectores para que crean contenido falso.

Este documento argumenta que los LLM tienen cada vez más una ventaja comparativa en la generación de contenido; los humanos actualmente tienen una ventaja comparativa en la evaluación y discriminación del contenido. Los LLM también son sobrehumanos en el manejo de grandes cantidades de texto. Estas características pueden facilitar la cooperación hombre-máquina.

Tres, modelo de lenguaje grande LLM

1. Modelo básico

Bommasani ve LLM como una clase de modelos fundamentales que pueden verse como un nuevo paradigma para la inteligencia artificial en la década de 2020. Los modelos base son grandes modelos de aprendizaje profundo con recuentos de parámetros del orden de 1011 y en aumento. Los investigadores entrenan previamente los modelos en datos enriquecidos para crear una base, que luego adaptan a diferentes aplicaciones a través de un proceso llamado ajuste fino. Por ejemplo, ajustar un LLM para que actúe como un chatbot (como ChatGPT) o un sistema para generar código de computadora (como Codex). GPT-3.5 de OpenAI, Chinchilla de DeepMind, PaLM y LaMDA de Google y Claude de Anthropic son algunos LLM de vanguardia.

El entrenamiento previo del modelo básico utiliza una gran cantidad de computación y datos en el proceso de aprendizaje autosupervisado, y el modelo aprende la estructura inherente en los datos de entrenamiento mediante la predicción continua de los datos enmascarados. Por ejemplo, para entrenar un LLM, los investigadores alimentan el modelo con fragmentos de texto que contienen palabras enmascaradas, y el modelo aprende a predecir cuáles son las palabras que faltan. Estos datos provienen de Wikipedia, artículos científicos, libros y otras fuentes en línea.

2. Leyes de escala propuestas por OpenAI

El modelo base y el LLM extendido difieren de las generaciones anteriores de modelos de aprendizaje profundo en que la última generación de LLM reduce la brecha entre las amplias capacidades de los humanos y las capacidades de los sistemas de IA específicos. El rendimiento general de LLM se mejora de acuerdo con las leyes de escala predecibles, que son leyes empíricas de varias generaciones de modelos de aprendizaje automático. Kaplan argumenta que la ley de escala observa que la bondad de ajuste de un LLM, medida por la pérdida logarítmica, aumenta con el "cálculo de entrenamiento", que es la cantidad de cálculos realizados para entrenar el modelo y el número y tamaño de parámetros. Hoffmann argumenta que aumentar proporcionalmente el recuento de parámetros de escala y el tamaño de los datos de entrenamiento LLM es óptimo.

Para conocer las reglas de escala, consulte el documento Training Compute-Optimal Large Language Models

En cuarto lugar, la aplicación de LLM

Esta sección presenta ejemplos del uso del LLM en la investigación económica, organizados en seis áreas: ideación, redacción, investigación de antecedentes, codificación, análisis de datos y derivación matemática. Para cada dominio, este documento proporciona una explicación general y algunos casos de uso específicos para ilustrar cómo aprovechar las capacidades de LLM. A menos que se indique lo contrario, este documento utiliza el sistema disponible públicamente líder actual, GPT-3 (text-davinci-003), que es un poco más poderoso que ChatGPT pero genera resultados similares. Para maximizar la reproducibilidad, establecemos el parámetro "Temperatura" del modelo en 0, lo que hace que la respuesta proporcionada por el sistema sea determinista. El sistema fue entrenado con datos a partir de 2021 y sin acceso a internet, el texto generado se basa completamente en los parámetros obtenidos durante el proceso de entrenamiento. Además, el sistema no tiene memoria y la información no se puede transferir de una etapa a la siguiente. La cantidad de texto que puede manejar el sistema es inferior a 4000 caracteres, lo que equivale a unas 3000 palabras. Los resultados generados por el LLM varían según el aviso. Pequeños cambios en las pistas, como espacios o puntuación diferentes, también pueden dar como resultado un resultado completamente diferente.

Todas las aplicaciones presentadas en este documento tienen en común el rápido tiempo de respuesta y el bajo costo de transacción de LLM, lo que hace que LLM sea muy útil para subcontratar microtareas, aunque en algunas tareas LLM es propenso a errores.

1. Idea

1) Lluvia de ideas

Los investigadores entrenan LLM en función de grandes cantidades de datos en toda la sección transversal del conocimiento humano, por lo que los LLM son muy útiles para generar ideas y ejemplos relacionados con un tema definido.

Este artículo le pide a LLM: "Por favor, haga una lluvia de ideas sobre los canales económicos a través de los cuales los avances en inteligencia artificial podrían exacerbar la desigualdad". Los canales enumerados por el modelo LLM no son innovadores, pero son relevantes, en gran medida plausibles y más amplios de lo que contempla este artículo. Después del punto 5, el documento observa que, de manera similar a la tendencia en la lluvia de ideas humana, la creatividad LLM disminuye y las respuestas se repiten.

2) Evaluar ideas

El LLM también puede evaluar diferentes ideas, en particular proporcionando las fortalezas y debilidades de diferentes programas de investigación. Escriba este texto "Estoy escribiendo un artículo sobre el impacto de la IA en la desigualdad. ¿Qué le resultaría más útil, un artículo sobre cómo la IA puede aumentar la desigualdad o un artículo sobre cómo la IA puede reducir la desigualdad?"

Las respuestas del modelo LLM sugieren que estudiar cómo la IA aumenta la desigualdad es más útil para trabajos positivos, mientras que estudiar cómo reduce la desigualdad es más útil para trabajos normativos.

3) Proporcione contra-evidencia

LLM es bueno para presentar argumentos y contraargumentos en apoyo de un punto de vista determinado. Esto ayuda a eliminar el sesgo de confirmación que es común en nuestros cerebros humanos. El caso de este documento es "La IA exacerbará la desigualdad. ¿Cuáles son las principales objeciones?"

Algunos de los contraargumentos dados por el LLM son buenos, algunos son malos, pero el resultado del LLM cubre los puntos principales conocidos por el autor.

2. Escritura

La competencia central de LLM es la generación de texto. Los LLM son bastante útiles para muchas tareas relacionadas con la escritura, esto incluye sintetizar texto basado en la esencia, cambiar el estilo del texto, editar texto, evaluar el estilo, generar titulares, generar titulares y tweets.

1) Texto sintético

LLM puede traducir viñetas aproximadas en oraciones legibles y bien estructuradas. Este artículo utiliza el siguiente ejemplo: "Por favor, escriba una oración temática que integre los siguientes argumentos y vaya más allá de los párrafos". La capacidad de sintetizar texto permite a los investigadores centrarse en las ideas del ensayo en lugar del proceso de escritura en sí. LLM también puede escribir en un estilo específico. Por ejemplo, el ejemplo anterior marcaría la diferencia si añadimos "escribir en estilo académico", "estilo coloquial", "en un estilo que los no economistas puedan entender" o "en el estilo de su político favorito". LLM también puede escribir texto en formato LaTeX.

2) Editar texto

LLM puede corregir errores gramaticales o de ortografía en el texto, cambiar el estilo y mejorar la claridad y la concisión. Este conjunto de funciones es más útil para los hablantes no nativos que desean mejorar su escritura. En los ejemplos a continuación, cada palabra con errores y las correcciones realizadas por el sistema están resaltadas en negrita. Este artículo utiliza el comando "¿Puedes corregir la siguiente oración?"

El LLM puede interpretar sus ediciones para que los estudiantes puedan aprender de ellas. LLM también puede convertir textos según diferentes niveles de lectores para que los lectores de diferentes niveles puedan entenderlos. Por ejemplo, use "Reescribe el texto a continuación para que un niño de 8 años pueda entenderlo".

3) Evaluar el texto

LLM también puede evaluar el estilo del texto, la claridad y la similitud. Pero las siguientes preguntas sobre el borrador del resumen de este documento, las respuestas dadas por LLM no son ideales.

"¿Cuáles son las principales deficiencias estilísticas del siguiente pasaje?" "¿Podría reescribir este pasaje para corregir estas deficiencias?" El autor está de acuerdo con todas las deficiencias identificadas por LLM. La versión reescrita mitiga algunas de estas deficiencias, pero no lo hace a la perfección. El sistema también puede responder preguntas como "¿Cuál de los siguientes argumentos es el más difícil de entender?"

4) Generar título y esquema

LLM puede generar títulos o esquemas llamativos, el siguiente ejemplo se basa en los 3 títulos proporcionados por el resumen del autor de un artículo reciente (Korinek y Juelfs, 2022)

1. Sociedades preparadas para el futuro: preparación para el declive de las máquinas autónomas y la mano de obra 2. ¿El fin del trabajo? Exploración del impacto de las máquinas automatizadas en la mano de obra 3. El impacto de las máquinas autónomas en la mano de obra: cómo distribuir el trabajo y los ingresos Los tres títulos sugeridos por LLM son adecuados para el artículo.

5) Genera tuits

LLM puede generar tweets, y en nuestro experimento le ordenamos a LLM que escriba 5 tweets para resumir un texto.

3. Investigación de antecedentes

1) Resume el texto

El experimento en este artículo es resumir un fragmento de texto en una oración. "Los modelos de lenguaje extenso (LLM) tienen el potencial de revolucionar la investigación económica. Este artículo describe seis áreas en las que los LLM son útiles: ideación, investigación contextual, escritura, análisis de datos, codificación y derivación matemática. Proporciono una descripción general y demuestro cómo Estos dominios se explotan y las características de LLM se clasifican como experimentales, útiles y muy útiles. Tengo la hipótesis de que el progreso continuo mejorará el rendimiento de LLM en estos dominios y la economía de usar LLM para automatizar microtareas Los humanos aumentarán en gran medida la productividad. Finalmente , Especulo sobre el impacto a largo plazo de la automatización cognitiva en la investigación económica a través de LLM. Este documento analiza el potencial de los grandes modelos de lenguaje al ilustrar y demostrar el caso LLM". La oración final proporcionada por LLM cubre todos los puntos.

2. Revisión de la literatura

LLM tiene un uso limitado en la recuperación de literatura, LLM puede recuperar documentos que no existen, se pueden encontrar herramientas más precisas en el sitio web https://elicit.org:. Este sitio solo informa documentos existentes.

3) Referencias de formato

El caso de este artículo es "Por favor, convierta las siguientes referencias al formato bibtex". Ahora formatéelo en formato APA. Si LLM encuentra trabajos muy citados en el conjunto de datos de entrenamiento, como "referencia bibtex para stiglitz weiss", LLM puede hacer buenos trabajos. para que los usuarios no tengan que copiar o ingresar información detallada de citas para trabajos relacionados.Sin embargo, cuando el sistema genera referencias bibtex para trabajos con bajo número de citas, falsifica descaradamente la información del artículo y de las citas.

4) Traducir texto

Jiao y otros (2023) argumentan que los LLM como ChatGPT son competitivos con los productos de traducción comerciales en idiomas europeos ricos en recursos. Pero en idiomas con menos recursos, menos textos digitalizados y menos traducciones digitalizadas, su rendimiento es peor.

5) Teoría de la explicación

El LLM puede actuar como tutor, explicando muy claramente muchos conceptos económicos comunes, lo que puede ser muy útil para los estudiantes que intentan aprender algo nuevo, o incluso para investigadores más avanzados en campos especializados. El caso de este artículo es explicar "¿Por qué son útiles las variables instrumentales?" LLM explica muy bien las variables instrumentales, pero responde muy mal al primer y segundo teorema de la economía del bienestar.

4. Programación

GPT3.5 ha sido entrenado con una gran cantidad de código informático, por lo que es bastante potente en la codificación. Se puede acceder al Codex de OpenAI a través del modelo code-davinci-002, o integrado en GitHub como Copilot. El modelo de lenguaje text-davinci-003 es un descendiente de code-davinci-002, por lo que no solo es capaz de generar lenguaje natural, sino también código de computadora. Si bien los dos lenguajes de programación en los que el LLM es más competente son python y R, funciona en cualquier lenguaje de programación común, desde funciones básicas de Excel hasta código complejo C/C++.

1) Escribir código

El caso es código Python para calcular números de Fibonacci. Otro ejemplo de este sistema es dibujar gráficos. Este artículo modifica el mensaje anterior para que diga "Código de Python para calcular números de Fibonacci y trazar los primeros 10 números y compararlos con una curva exponencial". El resultado funcionó bien.

Pero los LLM actualmente disponibles públicamente no son lo suficientemente poderosos para escribir códigos completos para simular la mayoría de los problemas económicos sin asistencia humana, por ejemplo, problemas económicos básicos como la suavización óptima del consumo, la fijación óptima de precios de monopolio, etc.

2) Explicar el código

LLM también puede explicar en lenguaje sencillo qué hace un código dado, lo cual es especialmente útil cuando los investigadores trabajan con lenguajes de programación desconocidos.

3) Traducir el código

A menudo, el código de un lenguaje de programación debe traducirse a otro idioma, por ejemplo, podemos transferir un proyecto a otra plataforma, LLM puede modificar fragmentos de código que se encuentran en foros de codificación en línea como StackExchange que son útiles pero están en el idioma incorrecto.

Los LLM actuales son bastante sólidos para traducir códigos abreviados en los idiomas más comunes. Para secuencias más largas, LLM aún requiere asistencia humana.

4) Corregir errores

El caso utilizado en este artículo es "¿Qué está mal con el siguiente código?"

LLM es muy útil para detectar errores de ortografía y violaciones de la gramática básica. También tiene algunas funciones más allá de este alcance, por ejemplo, LLM también se puede aplicar cuando se confunde el índice. Para errores de alto nivel, como errores en el algoritmo subyacente del código, LLM aún requiere una depuración manual.

5. Análisis de datos

1) Extraer datos del texto

Este documento experimenta con cómo LLM puede extraer datos de un texto escrito. "Mark obtuvo una A en economía y una B+ en matemáticas. Sally obtuvo una A- tanto en economía como en matemáticas. Frank obtuvo una B en economía y una C en matemáticas. Reformateado de la siguiente manera: nombre y grado en economía y grado en matemáticas. "

LLM también puede extraer los siguientes 10 tipos de datos: número de teléfono, código postal, número de seguro social, número de tarjeta de crédito, número de cuenta bancaria, fecha, hora, precio, porcentaje, medida (longitud, peso, etc.).

2) Organizar datos por formato

LLM también puede convertir los datos al formato requerido. Sobre la base del ejemplo anterior, LLM primero formatea los datos en formato de valores separados por comas (CSV) y luego los formatea como una tabla LaTeX.

3) Clasificación de texto

Este documento solicita a GPT3.5 que clasifique cinco tareas de la base de datos de la Red de Información Ocupacional (O*NET) del Departamento de Trabajo de EE. UU. como fáciles o difíciles de automatizar, y justifica su clasificación. Los resultados experimentales demuestran que la clasificación es razonable, pero no del todo sólida. Cuando se cambió la palabra indicadora, también cambió la respuesta del sistema a esencialmente la misma pregunta.

4) Extraer ideas

LLM también puede extraer actitudes emocionales del texto. Por ejemplo, LLM puede clasificar los tweets como "positivos" o "negativos". Del mismo modo, el LLM puede clasificar la declaración del Comité Federal de Mercado Abierto (FOMC, por sus siglas en inglés) para establecer las tasas de interés de EE. UU. ¿La declaración es agresiva o moderada? El Comité elevó el rango objetivo para la tasa de fondos federales y redujo sus tenencias de bonos del Tesoro, deuda de agencias y valores respaldados por hipotecas de agencias. El Comité también está firmemente comprometido a devolver la inflación a su objetivo del 2 por ciento. La evaluación del sistema es correcta, y con razón.

5) Simular sujetos humanos

Argyle y otros (2022) observaron que los datos de entrenamiento de LLM contienen mucha información sobre humanos, y propuso usar LLM para simular sujetos humanos. Estableció GPT3 en el contexto sociodemográfico de humanos reales, demostrando que las respuestas posteriores a las preguntas de la encuesta estaban altamente correlacionadas con las respuestas reales de los humanos en el contexto descrito. Horton (2022) demuestra la aplicación de la economía al replicar y extender varios experimentos de comportamiento utilizando sujetos de prueba simulados.

6. Derivación matemática

Noorbakhsh et al. 2021) mostró que los LLM se pueden ajustar para tareas matemáticas. Frieder y otros (2023) desarrollaron un conjunto de datos de problemas matemáticos de nivel de posgrado y concluyeron que la habilidad matemática de ChatGPT era significativamente menor que la de los estudiantes graduados de matemáticas ordinarios. Los LLM actuales se capacitan principalmente a través de textos y artículos matemáticos.

1) modelado

Este documento utiliza un LLM para describir el poder adquisitivo de un consumidor isoelástico para un producto y lineal para otro, escrito en LaTeX y asignando variables a los precios. Con base en esta pista, el LLM sabe continuar procesando el problema de optimización del consumidor. La columna de la izquierda muestra el texto generado, la columna de la derecha muestra la versión compilada por LaTeX. Se puede observar que el LLM rellena correctamente las restricciones presupuestarias adecuadas y establece el problema de maximización asociado. En las ecuaciones de Lagrange, el sistema contiene restricciones presupuestarias con signos inusuales. Derivó correctamente dos de las tres condiciones de primer orden, pero se equivocó en la derivada de la función de utilidad isoelástica. Si bien lleva tiempo leer el texto generado y detectar errores, LLM escribe automáticamente los problemas de maximización y Lagrangian, y resuelve los problemas de maximización parcial en segundos, lo que aún ayuda a ahorrar un valioso tiempo de investigación.

2) Ecuación de derivación

Como muestran los ejemplos anteriores, los LLM actualmente tienen una capacidad algo limitada para derivar ecuaciones. De hecho, continuando con el ejemplo anterior, esta actualización corrige el error en la condición de primer orden y requiere que el sistema genere el resto. El sistema deduce correctamente la solución del problema de optimización.

Sin embargo, las capacidades matemáticas del sistema aún son bastante limitadas: después de obtener la solución correcta, arreglamos el error de signo en el Lagrangiano e intentamos regenerar el resto de la derivación, pero el sistema produce caracteres distorsionados. El autor probó varias otras derivaciones y descubrió que la tasa de error era demasiado alta para que el sistema funcionara en esta aplicación.

3) Explicar el modelo

Los LLM actuales también tienen una capacidad limitada para explicar modelos simples. Aquí hay un ejemplo que explica sistemáticamente las matemáticas detrás del famoso problema del bate y la pelota: resuelva el problema del bate y la pelota e indique todos los pasos intermedios. Cuando el indicador es diferente, el resultado es diferente. Los LLM a menudo producían contenido más confiable cuando se les pedía que demostraran pasos intermedios, conocidos como "indicadores de cadena de pensamiento", de manera similar a cómo los estudiantes eran menos propensos a cometer errores cuando se les pedía que explicaran los pasos intermedios detrás de sus soluciones informadas (Wei et al., 2022b).

conclusión V

La siguiente tabla resume todas las tareas de ejemplo ilustradas en este documento, clasificadas por los seis dominios de la aplicación LLM. En la tercera columna de la tabla, se informa la evaluación subjetiva del autor sobre la utilidad de las funciones LLM descritas al 1 de febrero de 2023. Las calificaciones de los autores van del 1 al 3, donde 1 describe la capacidad del LLM para ser experimental pero proporciona resultados inconsistentes y requiere una modificación humana rigurosa; 2 indica capacidades útiles y potencialmente ahorradoras de tiempo, pero puede ser inconsistente y requiere una cuidadosa modificación Modificación; 3 significa que ya es muy funcional y funciona como se esperaba la mayor parte del tiempo.

1 = Experimental; los resultados han sido inconsistentes y requieren una estricta supervisión humana

2 = Útil; necesita supervisión, pero puede ahorrar tiempo

3 = muy útil; incorporarlos en su flujo de trabajo le ahorrará tiempo

LLM se ha convertido en una herramienta de investigación útil para tareas como la ideación, la escritura y la investigación de antecedentes, el análisis de datos, la codificación y la derivación matemática.

A corto plazo, la automatización cognitiva a través de LLM permitirá a los investigadores ser más productivos. Esto puede ayudar a aumentar la tasa general de progreso en la economía.

A mediano plazo, los LLM serán cada vez más útiles para generar el contenido de los trabajos de investigación. Los investigadores humanos se centrarán en su ventaja comparativa, haciendo preguntas, sugiriendo direcciones para obtener respuestas, distinguiendo qué contenido generado es útil y recopilando información y proporcionando comentarios, de forma similar a los asesores. Los avances en los LLM significarán que los LLM mejorarán cada vez más en la realización de tareas, por lo que habrá menos necesidad de que los humanos proporcionen aportes, ediciones y comentarios.

A la larga, los economistas deberían aprender las "lecciones duras" del progreso de la IA, que Sutton describe como: Durante la mayor parte de la historia de la IA, los investigadores han trabajado para hacer que los sistemas de IA sean más eficientes mediante la programación de conocimientos específicos de dominio en ellos. observó, es una estrategia que siempre ayuda en el corto plazo, pero sus beneficios eventualmente se nivelan.

Con suficiente poder de cómputo, los sistemas de IA suficientemente avanzados podrían generar y dilucidar modelos económicos superiores, y el trabajo cognitivo de los economistas humanos eventualmente podría volverse redundante.

Seis, perspectivas

La automatización cognitiva plantea nuevas preguntas de investigación para los economistas:

1. ¿Qué significa la automatización cognitiva para el mercado laboral?, ¿acelerará también la automatización del trabajo manual?, ¿cómo puede nuestra sociedad prepararse mejor para los cambios que se avecinan?

2. ¿Cuál es el impacto de la automatización cognitiva en la educación?, ¿se devaluará el capital humano?

3. ¿Cómo afectará la automatización cognitiva el progreso tecnológico y el crecimiento económico?Si el trabajo humano puede automatizarse, ¿cuál será el cuello de botella para el crecimiento futuro?

4. ¿Cómo podemos resolver mejor el problema de alineación de la IA?

Supongo que te gusta

Origin blog.csdn.net/pony8181/article/details/130618742
Recomendado
Clasificación