
28/03/25, 12:00:16
|
|
Noticias HTCMania
|
|
Fecha de registro: mar 2010
Mensajes: 61,116
|
|
Descubren cómo razonan los modelos de lenguaje como Claude
Descubren cómo razonan los modelos de lenguaje como Claude

Anthropic, la compañía detrás de modelos como Claude 3.7 Sonnet, ha dado un paso importante en la comprensión del funcionamiento interno de la inteligencia artificial generativa. Su último estudio propone un enfoque innovador para descomponer los modelos de lenguaje de gran tamaño (LLM) con el fin de revelar cómo razonan, toman decisiones e incluso cómo generan errores o alucinaciones. El método desarrollado se basa en un proceso de cuatro etapas que busca convertir la IA en algo más comprensible: descomponer el modelo en partes interpretables, describir su función, mapear sus interacciones y validar los resultados mediante intervenciones directas. Este enfoque se asemeja a una resonancia magnética funcional aplicada a una red neuronal. Uno de los avances clave ha sido el uso de transcodificadores entre capas (CLT), una técnica que permite analizar circuitos completos en lugar de neuronas aisladas. Gracias a ello, los investigadores han logrado identificar estructuras responsables de tareas específicas, como conjugaciones verbales o construcciones comparativas, observando cómo interactúan entre capas para producir respuestas coherentes. El estudio también demuestra que los LLM pueden realizar planificación anticipada en tareas creativas y que el razonamiento multilingüe no depende de rutas neuronales independientes, sino de espacios compartidos de representación lingüística. Además, se ha evidenciado cómo la IA puede generar razonamientos falsos si parte de datos erróneos. A pesar de sus limitaciones —como la demanda de recursos computacionales—, esta metodología abre una vía prometedora hacia una IA más transparente y confiable, desmitificando procesos que hasta ahora se consideraban una caja negra.
fuente
|