#2 y otra... "luchando ahora por desarrollar GPT-5, centrándose en cambio en la interfaz de usuario en un intento de encontrar una ventaja diferente".... Los modelos no tienen interfaz de usuario... Está mezclando herramientas como ChatGPT que se montan sobre o usando modelos como gpt-x
#57 No. Los modelos que se pueden ejecutar en un PC "normal" en condiciones decentes de velocidad y rendimiento no tienen nada que ver con el R1.
#66 Los modelos de 1.5, 7 u 8 billones de parámetro son modelos tuneados (Destilados) de "LlaMa" o Qwen ... son modelos "Densos" y su rendimiento y tiempo de ejecución está ligado a la cantidad de parámetros.
Esto solo cambia por que hay un competidor que hace coches mejor... pero no hace coches mejores
Completamente errónea una vez mas. DeepSeek ha desarrollado una forma mas eficiente de "hacer los coches" pero esos "coches" que produce son solo algo mejores de los que ya existían y necesitan la misma "gasolina".
"Solo" han conseguido generar un modelo TOP TOP al nivel de O1 de forma más barata. La diferencia es que lo han liberado y han creado otros modelos "destilados" similares a los que ya había.
Dejarse de flipar tanto que esto no va a ser el revulsivo que llevará la IA a los equipos de sobremesa.
#41 Efectivamente. Son llama's y qwen's re-entrenados con R1. También está el modelo R1 original con "capacidad de razonar" pero ese no rula en el 99'9% de PCs
#2 Ese no es el modelo R1 sino destilaciones de LlaMa usando R1. Lo que has probado no es un modelo de razonamiento.
Y decir que DeepSeek R1 funciona en un PC es fliparse mucho. Prácticamente nadie puede ejecutar R1 y las versiones que más o menos se ejecutan en local (en un buen equipo) ya las teníamos antes.
Y si war games estaba equivocado? Y si resulta que tras una guerra civil en EEUU resulta en un mundo mejor?
Entiendaseme bien, no es un deseo que suceda esto, es solo un caso hipotético.