AIQ
بازگشت به اکتشاف
Meta

Meta Llama 3.1 8B

meta-llama-3.1-8b-instruct
مدل متنی Llama 3.1 که برای تنظیم دستورالعمل‌ها بهینه‌سازی شده و برای موارد استفاده مکالمه چندزبانه بهینه شده است. در بسیاری از مدل‌های چت منبع باز و بسته موجود، در معیارهای صنعتی رایج عملکرد برجسته‌ای دارد.
128K

ارائه‌دهندگان پشتیبانی شده برای این مدل

Meta
GithubGithub
Metameta-llama-3.1-8b-instruct
حداکثر طول محتوا
128K
حداکثر طول خروجی
4K
قیمت ورودی
--
قیمت خروجی
--
Higress
Metameta-llama-3.1-8b-instruct
حداکثر طول محتوا
128K
حداکثر طول خروجی
4K
قیمت ورودی
--
قیمت خروجی
--

پارامترهای مدل

تصادفی بودن
temperature

این تنظیمات بر تنوع پاسخ‌های مدل تأثیر می‌گذارد. مقادیر پایین‌تر منجر به پاسخ‌های قابل پیش‌بینی‌تر و معمولی‌تر می‌شود، در حالی که مقادیر بالاتر تنوع و پاسخ‌های غیرمعمول‌تر را تشویق می‌کند. وقتی مقدار به 0 تنظیم شود، مدل همیشه برای ورودی داده شده یک پاسخ یکسان ارائه می‌دهد. مشاهده مستندات

نوع
FLOAT
مقدار پیش‌فرض
1.00
محدوده
0.00 ~ 2.00
نمونه‌گیری هسته‌ای
top_p

این تنظیمات انتخاب مدل را به درصدی از کلماتی که بالاترین احتمال را دارند محدود می‌کند: فقط کلماتی که احتمال تجمعی آن‌ها به P می‌رسد انتخاب می‌شوند. مقادیر پایین‌تر پاسخ‌های مدل را قابل پیش‌بینی‌تر می‌کند، در حالی که تنظیمات پیش‌فرض به مدل اجازه می‌دهد از کل دامنه کلمات انتخاب کند. مشاهده مستندات

نوع
FLOAT
مقدار پیش‌فرض
1.00
محدوده
0.00 ~ 1.00
تازگی موضوع
presence_penalty

این تنظیمات به منظور کنترل استفاده مجدد از کلمات بر اساس فرکانس ظاهر شدن آن‌ها در ورودی طراحی شده است. این تنظیمات تلاش می‌کند تا از استفاده مکرر از کلماتی که بیشتر در ورودی ظاهر شده‌اند جلوگیری کند و فرکانس استفاده از آن‌ها را متناسب با فرکانس ظاهر شدنشان تنظیم می‌کند. جریمه کلمات با افزایش تعداد تکرار افزایش می‌یابد. مقادیر منفی استفاده مجدد از کلمات را تشویق می‌کند. مشاهده مستندات

نوع
FLOAT
مقدار پیش‌فرض
0.00
محدوده
-2.00 ~ 2.00
جریمه فرکانس
frequency_penalty

این تنظیمات فرکانس استفاده مجدد از کلمات خاصی که در ورودی ظاهر شده‌اند را تنظیم می‌کند. مقادیر بالاتر احتمال تکرار این کلمات را کاهش می‌دهد، در حالی که مقادیر منفی اثر معکوس دارند. جریمه کلمات با افزایش تعداد تکرار افزایش نمی‌یابد. مقادیر منفی استفاده مجدد از کلمات را تشویق می‌کند. مشاهده مستندات

نوع
FLOAT
مقدار پیش‌فرض
0.00
محدوده
-2.00 ~ 2.00
محدودیت پاسخ واحد
max_tokens

این تنظیمات حداکثر طولی که مدل می‌تواند در یک پاسخ واحد تولید کند را تعریف می‌کند. مقادیر بالاتر به مدل اجازه می‌دهد پاسخ‌های طولانی‌تری تولید کند، در حالی که مقادیر پایین‌تر طول پاسخ را محدود کرده و آن را مختصرتر می‌کند. با توجه به سناریوهای مختلف، تنظیم مناسب این مقدار می‌تواند به دستیابی به طول و جزئیات مورد انتظار پاسخ کمک کند. مشاهده مستندات

نوع
INT
مقدار پیش‌فرض
--
محدوده
0 ~ 4K
شدت استدلال
reasoning_effort

این تنظیم برای کنترل شدت استدلال مدل قبل از تولید پاسخ استفاده می‌شود. شدت پایین به سرعت پاسخ‌دهی اولویت می‌دهد و توکن را صرفه‌جویی می‌کند، در حالی که شدت بالا استدلال کامل‌تری ارائه می‌دهد اما توکن بیشتری مصرف کرده و سرعت پاسخ‌دهی را کاهش می‌دهد. مقدار پیش‌فرض متوسط است که تعادل بین دقت استدلال و سرعت پاسخ‌دهی را برقرار می‌کند. مشاهده مستندات

نوع
STRING
مقدار پیش‌فرض
--
محدوده
low ~ high