AIQ
بازگشت به اکتشاف
Qwen

DeepSeek: DeepSeek R1 Distill Qwen 14B

deepseek/deepseek-r1-distill-qwen-14b
DeepSeek R1 Distill Qwen 14B یک مدل زبان بزرگ تقطیر شده مبتنی بر Qwen 2.5 14B است که با استفاده از خروجی DeepSeek R1 آموزش دیده است. این مدل در چندین آزمون معیار از o1-mini OpenAI پیشی گرفته و به آخرین دستاوردهای فناوری مدل‌های متراکم (dense models) دست یافته است. نتایج برخی از آزمون‌های معیار به شرح زیر است: AIME 2024 pass@1: 69.7 MATH-500 pass@1: 93.9 CodeForces Rating: 1481 این مدل با تنظیمات خروجی DeepSeek R1، عملکرد رقابتی معادل مدل‌های پیشرفته بزرگتر را نشان می‌دهد.
62K

ارائه‌دهندگان پشتیبانی شده برای این مدل

Qwen
PPIOPPIO
Qwendeepseek/deepseek-r1-distill-qwen-14b
حداکثر طول محتوا
62K
حداکثر طول خروجی
--
قیمت ورودی
$0.14
قیمت خروجی
$0.14
PPIOPPIO
Qwendeepseek/deepseek-r1-distill-qwen-14b
حداکثر طول محتوا
62K
حداکثر طول خروجی
--
قیمت ورودی
$0.14
قیمت خروجی
$0.14
QwenQwen
Qwendeepseek/deepseek-r1-distill-qwen-14b
حداکثر طول محتوا
--
حداکثر طول خروجی
--
قیمت ورودی
--
قیمت خروجی
--

پارامترهای مدل

تصادفی بودن
temperature

این تنظیمات بر تنوع پاسخ‌های مدل تأثیر می‌گذارد. مقادیر پایین‌تر منجر به پاسخ‌های قابل پیش‌بینی‌تر و معمولی‌تر می‌شود، در حالی که مقادیر بالاتر تنوع و پاسخ‌های غیرمعمول‌تر را تشویق می‌کند. وقتی مقدار به 0 تنظیم شود، مدل همیشه برای ورودی داده شده یک پاسخ یکسان ارائه می‌دهد. مشاهده مستندات

نوع
FLOAT
مقدار پیش‌فرض
1.00
محدوده
0.00 ~ 2.00
نمونه‌گیری هسته‌ای
top_p

این تنظیمات انتخاب مدل را به درصدی از کلماتی که بالاترین احتمال را دارند محدود می‌کند: فقط کلماتی که احتمال تجمعی آن‌ها به P می‌رسد انتخاب می‌شوند. مقادیر پایین‌تر پاسخ‌های مدل را قابل پیش‌بینی‌تر می‌کند، در حالی که تنظیمات پیش‌فرض به مدل اجازه می‌دهد از کل دامنه کلمات انتخاب کند. مشاهده مستندات

نوع
FLOAT
مقدار پیش‌فرض
1.00
محدوده
0.00 ~ 1.00
تازگی موضوع
presence_penalty

این تنظیمات به منظور کنترل استفاده مجدد از کلمات بر اساس فرکانس ظاهر شدن آن‌ها در ورودی طراحی شده است. این تنظیمات تلاش می‌کند تا از استفاده مکرر از کلماتی که بیشتر در ورودی ظاهر شده‌اند جلوگیری کند و فرکانس استفاده از آن‌ها را متناسب با فرکانس ظاهر شدنشان تنظیم می‌کند. جریمه کلمات با افزایش تعداد تکرار افزایش می‌یابد. مقادیر منفی استفاده مجدد از کلمات را تشویق می‌کند. مشاهده مستندات

نوع
FLOAT
مقدار پیش‌فرض
0.00
محدوده
-2.00 ~ 2.00
جریمه فرکانس
frequency_penalty

این تنظیمات فرکانس استفاده مجدد از کلمات خاصی که در ورودی ظاهر شده‌اند را تنظیم می‌کند. مقادیر بالاتر احتمال تکرار این کلمات را کاهش می‌دهد، در حالی که مقادیر منفی اثر معکوس دارند. جریمه کلمات با افزایش تعداد تکرار افزایش نمی‌یابد. مقادیر منفی استفاده مجدد از کلمات را تشویق می‌کند. مشاهده مستندات

نوع
FLOAT
مقدار پیش‌فرض
0.00
محدوده
-2.00 ~ 2.00
محدودیت پاسخ واحد
max_tokens

این تنظیمات حداکثر طولی که مدل می‌تواند در یک پاسخ واحد تولید کند را تعریف می‌کند. مقادیر بالاتر به مدل اجازه می‌دهد پاسخ‌های طولانی‌تری تولید کند، در حالی که مقادیر پایین‌تر طول پاسخ را محدود کرده و آن را مختصرتر می‌کند. با توجه به سناریوهای مختلف، تنظیم مناسب این مقدار می‌تواند به دستیابی به طول و جزئیات مورد انتظار پاسخ کمک کند. مشاهده مستندات

نوع
INT
مقدار پیش‌فرض
--
شدت استدلال
reasoning_effort

این تنظیم برای کنترل شدت استدلال مدل قبل از تولید پاسخ استفاده می‌شود. شدت پایین به سرعت پاسخ‌دهی اولویت می‌دهد و توکن را صرفه‌جویی می‌کند، در حالی که شدت بالا استدلال کامل‌تری ارائه می‌دهد اما توکن بیشتری مصرف کرده و سرعت پاسخ‌دهی را کاهش می‌دهد. مقدار پیش‌فرض متوسط است که تعادل بین دقت استدلال و سرعت پاسخ‌دهی را برقرار می‌کند. مشاهده مستندات

نوع
STRING
مقدار پیش‌فرض
--
محدوده
low ~ high

مدل‌های مرتبط

DeepSeek

DeepSeek: DeepSeek R1 (community)

deepseek/deepseek-r1/community
DeepSeek R1 جدیدترین مدل متن باز منتشر شده توسط تیم DeepSeek است که دارای عملکرد استدلال بسیار قوی است و به ویژه در وظایف ریاضی، برنامه‌نویسی و استدلال به سطحی معادل مدل o1 OpenAI رسیده است.
62K
DeepSeek

DeepSeek: DeepSeek V3 (community)

deepseek/deepseek-v3/community
DeepSeek-V3 در سرعت استدلال به یک پیشرفت عمده نسبت به مدل‌های قبلی دست یافته است. این مدل در بین مدل‌های متن باز رتبه اول را دارد و می‌تواند با پیشرفته‌ترین مدل‌های بسته جهانی رقابت کند. DeepSeek-V3 از معماری توجه چندسر (MLA) و DeepSeekMoE استفاده می‌کند که این معماری‌ها در DeepSeek-V2 به طور کامل تأیید شده‌اند. علاوه بر این، DeepSeek-V3 یک استراتژی کمکی بدون ضرر برای تعادل بار معرفی کرده و اهداف آموزشی پیش‌بینی چند برچسبی را برای بهبود عملکرد تعیین کرده است.
62K
DeepSeek

DeepSeek R1

deepseek/deepseek-r1
DeepSeek-R1 با وجود داده‌های برچسب‌گذاری شده بسیار کم، توانایی استدلال مدل را به طرز چشمگیری افزایش می‌دهد. قبل از ارائه پاسخ نهایی، مدل ابتدا یک زنجیره تفکر را تولید می‌کند تا دقت پاسخ نهایی را افزایش دهد.
62K
DeepSeek

DeepSeek V3

deepseek/deepseek-v3
DeepSeek-V3 در سرعت استدلال به یک پیشرفت عمده نسبت به مدل‌های قبلی دست یافته است. این مدل در بین مدل‌های متن باز رتبه اول را دارد و می‌تواند با پیشرفته‌ترین مدل‌های بسته جهانی رقابت کند. DeepSeek-V3 از معماری توجه چندسر (MLA) و DeepSeekMoE استفاده می‌کند که این معماری‌ها در DeepSeek-V2 به طور کامل تأیید شده‌اند. علاوه بر این، DeepSeek-V3 یک استراتژی کمکی بدون ضرر برای تعادل بار معرفی کرده و اهداف آموزشی پیش‌بینی چند برچسبی را برای بهبود عملکرد تعیین کرده است.
62K
Meta

DeepSeek R1 Distill Llama 70B

deepseek/deepseek-r1-distill-llama-70b
DeepSeek R1 Distill Llama 70B یک مدل زبان بزرگ مبتنی بر Llama3.3 70B است که با استفاده از تنظیمات DeepSeek R1 به عملکرد رقابتی معادل مدل‌های پیشرفته بزرگ دست یافته است.
32K