Новая мощная модель QwQ-32B: Революция в рассуждающих языковых моделях с открытым исходным кодом доступна в Ollama

Новая языковая модель с открытым исходным кодом QwQ-32B, обладающая мощной аналитической способностью, теперь доступна на платформе Ollama. Эта среднеразмерная модель с 32,5 миллиардами параметров из серии Qwen предназначена для решения сложных задач и показывает конкурентоспособные результаты по сравнению с другими моделями, занимающимися рассуждениями, такими как DeepSeek-R1.

QwQ-32B демонстрирует высокую точность ответов: в некоторых тестах она достигает 90%, что на 21% превышает результаты Llama 70B. При этом размер QwQ-32B в два раза меньше Llama 70B и в 20 раз меньше DeepSeek R1, но с сопоставимой производительностью. Это делает QwQ-32B привлекательным выбором для разработчиков и исследователей, которым нужны мощные модели, но которые не располагают чрезмерными вычислительными ресурсами.

Попробовать данную модель можно на серверах с GPU, начиная от 2xRTX 4090 или 2x7900XTX, желательно использовать видеокарты с 48 Гб и более памяти, такие как H6000, A100 или H100, особенно если требуется работать с большим размером контекста. Модель отлично совместима с настройками Ollama и OpenWebUI.