I’m going to make a deliberately provocative statement: generative AI is not a source of information. Now, before the technically minded among you start typing furious corrections, let me clarify what I actually mean.
A raw large language model is a pattern matching system, designed specifically for creating plausible-sounding text. That’s its job. That’s what the transformer architecture was built to do. Can it produce information? Yes, absolutely. Can it produce accurate information? Often, yes. But here’s the critical issue: this accuracy is neither guaranteed nor verifiable without external checking – and that’s the fundamental problem.
No comment yet.
Sign up to comment
Your new post is loading...
Un LMS es un motor de coincidencia de patrones probabilísticos. Eso es una simplificación, y estoy seguro de que las personas que saben mucho más sobre LLM que yo vendrán y me dirán lo equivocado que está eso. Pero esencialmente, es estocástico. Está haciendo predicciones basadas en patrones en lo que le ha pedido, patrones en sus datos de entrenamiento, los pesos que se le han dado, el aprendizaje por refuerzo al que se ha sometido y la configuración de temperatura a la que se está ejecutando. Los modelos están entrenados explícitamente para reproducir información con precisión, a través de conjuntos de datos masivos, algoritmos de optimización y aprendizaje por refuerzo a partir de comentarios humanos.
Los LLM tienen un proceso consistente pero producen resultados inconsistentes. Puede confiar absolutamente en que un modelo de lenguaje grande genere patrones que coincidan con lo que se ha programado para que coincida en función de su entrada y sus datos de entrenamiento. Eso es 100% confiable. En lo que no puede confiar es en que esos patrones serán precisos, completos o incluso iguales de una consulta a la siguiente.