AIQ
بازگشت به اکتشاف
Qwen

Qwen2.5 14B Instruct

Qwen/Qwen2.5-14B-Instruct
Qwen2.5 یک سری جدید از مدل‌های زبانی بزرگ است که با هدف بهینه‌سازی پردازش وظایف دستوری طراحی شده است.
32K

ارائه‌دهندگان پشتیبانی شده برای این مدل

Qwen
SiliconCloudSiliconCloud
QwenQwen/Qwen2.5-14B-Instruct
حداکثر طول محتوا
32K
حداکثر طول خروجی
--
قیمت ورودی
$0.10
قیمت خروجی
$0.10
GiteeAIGiteeAI
QwenQwen/Qwen2.5-14B-Instruct
حداکثر طول محتوا
--
حداکثر طول خروجی
--
قیمت ورودی
--
قیمت خروجی
--

پارامترهای مدل

تصادفی بودن
temperature

این تنظیمات بر تنوع پاسخ‌های مدل تأثیر می‌گذارد. مقادیر پایین‌تر منجر به پاسخ‌های قابل پیش‌بینی‌تر و معمولی‌تر می‌شود، در حالی که مقادیر بالاتر تنوع و پاسخ‌های غیرمعمول‌تر را تشویق می‌کند. وقتی مقدار به 0 تنظیم شود، مدل همیشه برای ورودی داده شده یک پاسخ یکسان ارائه می‌دهد. مشاهده مستندات

نوع
FLOAT
مقدار پیش‌فرض
1.00
محدوده
0.00 ~ 2.00
نمونه‌گیری هسته‌ای
top_p

این تنظیمات انتخاب مدل را به درصدی از کلماتی که بالاترین احتمال را دارند محدود می‌کند: فقط کلماتی که احتمال تجمعی آن‌ها به P می‌رسد انتخاب می‌شوند. مقادیر پایین‌تر پاسخ‌های مدل را قابل پیش‌بینی‌تر می‌کند، در حالی که تنظیمات پیش‌فرض به مدل اجازه می‌دهد از کل دامنه کلمات انتخاب کند. مشاهده مستندات

نوع
FLOAT
مقدار پیش‌فرض
1.00
محدوده
0.00 ~ 1.00
تازگی موضوع
presence_penalty

این تنظیمات به منظور کنترل استفاده مجدد از کلمات بر اساس فرکانس ظاهر شدن آن‌ها در ورودی طراحی شده است. این تنظیمات تلاش می‌کند تا از استفاده مکرر از کلماتی که بیشتر در ورودی ظاهر شده‌اند جلوگیری کند و فرکانس استفاده از آن‌ها را متناسب با فرکانس ظاهر شدنشان تنظیم می‌کند. جریمه کلمات با افزایش تعداد تکرار افزایش می‌یابد. مقادیر منفی استفاده مجدد از کلمات را تشویق می‌کند. مشاهده مستندات

نوع
FLOAT
مقدار پیش‌فرض
0.00
محدوده
-2.00 ~ 2.00
جریمه فرکانس
frequency_penalty

این تنظیمات فرکانس استفاده مجدد از کلمات خاصی که در ورودی ظاهر شده‌اند را تنظیم می‌کند. مقادیر بالاتر احتمال تکرار این کلمات را کاهش می‌دهد، در حالی که مقادیر منفی اثر معکوس دارند. جریمه کلمات با افزایش تعداد تکرار افزایش نمی‌یابد. مقادیر منفی استفاده مجدد از کلمات را تشویق می‌کند. مشاهده مستندات

نوع
FLOAT
مقدار پیش‌فرض
0.00
محدوده
-2.00 ~ 2.00
محدودیت پاسخ واحد
max_tokens

این تنظیمات حداکثر طولی که مدل می‌تواند در یک پاسخ واحد تولید کند را تعریف می‌کند. مقادیر بالاتر به مدل اجازه می‌دهد پاسخ‌های طولانی‌تری تولید کند، در حالی که مقادیر پایین‌تر طول پاسخ را محدود کرده و آن را مختصرتر می‌کند. با توجه به سناریوهای مختلف، تنظیم مناسب این مقدار می‌تواند به دستیابی به طول و جزئیات مورد انتظار پاسخ کمک کند. مشاهده مستندات

نوع
INT
مقدار پیش‌فرض
--
شدت استدلال
reasoning_effort

این تنظیم برای کنترل شدت استدلال مدل قبل از تولید پاسخ استفاده می‌شود. شدت پایین به سرعت پاسخ‌دهی اولویت می‌دهد و توکن را صرفه‌جویی می‌کند، در حالی که شدت بالا استدلال کامل‌تری ارائه می‌دهد اما توکن بیشتری مصرف کرده و سرعت پاسخ‌دهی را کاهش می‌دهد. مقدار پیش‌فرض متوسط است که تعادل بین دقت استدلال و سرعت پاسخ‌دهی را برقرار می‌کند. مشاهده مستندات

نوع
STRING
مقدار پیش‌فرض
--
محدوده
low ~ high

مدل‌های مرتبط

DeepSeek

DeepSeek R1

deepseek-ai/DeepSeek-R1
DeepSeek-R1 یک مدل استنتاجی مبتنی بر یادگیری تقویتی (RL) است که به مشکلات تکرار و خوانایی در مدل پرداخته است. قبل از RL، DeepSeek-R1 داده‌های شروع سرد را معرفی کرد و عملکرد استنتاج را بهینه‌تر کرد. این مدل در وظایف ریاضی، کدنویسی و استنتاج با OpenAI-o1 عملکرد مشابهی دارد و با استفاده از روش‌های آموزشی به دقت طراحی شده، کیفیت کلی را بهبود بخشیده است.
64K
DeepSeek

DeepSeek V3

deepseek-ai/DeepSeek-V3
DeepSeek-V3 یک مدل زبانی ترکیبی از متخصصان (MoE) با 671 میلیارد پارامتر است که از توجه چندسر (MLA) و معماری DeepSeekMoE استفاده می‌کند و با ترکیب استراتژی تعادل بار بدون ضرر کمکی، کارایی استنتاج و آموزش را بهینه می‌کند. با پیش‌آموزش بر روی 14.8 تریلیون توکن با کیفیت بالا و انجام تنظیم دقیق نظارتی و یادگیری تقویتی، DeepSeek-V3 در عملکرد از سایر مدل‌های متن‌باز پیشی می‌گیرد و به مدل‌های بسته پیشرو نزدیک می‌شود.
64K
DeepSeek

DeepSeek R1 (Pro)

Pro/deepseek-ai/DeepSeek-R1
DeepSeek-R1 یک مدل استنتاجی مبتنی بر یادگیری تقویتی (RL) است که مشکلات تکرار و خوانایی را در مدل حل می‌کند. قبل از RL، DeepSeek-R1 داده‌های شروع سرد را معرفی کرده و عملکرد استنتاج را بهینه‌سازی کرده است. این مدل در وظایف ریاضی، کد و استنتاج با OpenAI-o1 عملکرد مشابهی دارد و از طریق روش‌های آموزشی به دقت طراحی شده، عملکرد کلی را بهبود می‌بخشد.
64K
DeepSeek

DeepSeek V3 (Pro)

Pro/deepseek-ai/DeepSeek-V3
DeepSeek-V3 یک مدل زبان با 671 میلیارد پارامتر است که از معماری متخصصان ترکیبی (MoE) و توجه چندسر (MLA) استفاده می‌کند و با استراتژی تعادل بار بدون ضرر کمکی بهینه‌سازی کارایی استنتاج و آموزش را انجام می‌دهد. این مدل با پیش‌آموزش بر روی 14.8 تریلیون توکن با کیفیت بالا و انجام تنظیم دقیق نظارتی و یادگیری تقویتی، در عملکرد از سایر مدل‌های متن‌باز پیشی می‌گیرد و به مدل‌های بسته پیشرو نزدیک می‌شود.
64K
Meta

DeepSeek R1 Distill Llama 70B

deepseek-ai/DeepSeek-R1-Distill-Llama-70B
مدل تقطیر DeepSeek-R1 که با استفاده از یادگیری تقویتی و داده‌های شروع سرد عملکرد استدلال را بهینه‌سازی کرده و مدل‌های متن‌باز را به روز کرده است.
32K