AIQ
بازگشت به اکتشاف
Meta

Code Llama 7B

codellama
Code Llama یک مدل زبانی بزرگ (LLM) است که بر تولید و بحث در مورد کد تمرکز دارد و از زبان‌های برنامه‌نویسی گسترده‌ای پشتیبانی می‌کند و برای محیط‌های توسعه‌دهندگان مناسب است.
16K

ارائه‌دهندگان پشتیبانی شده برای این مدل

Meta
OllamaOllama
Metacodellama
حداکثر طول محتوا
16K
حداکثر طول خروجی
--
قیمت ورودی
--
قیمت خروجی
--
حداکثر طول محتوا
16K
حداکثر طول خروجی
--
قیمت ورودی
--
قیمت خروجی
--

پارامترهای مدل

تصادفی بودنtemperature

این تنظیمات بر تنوع پاسخ‌های مدل تأثیر می‌گذارد. مقادیر پایین‌تر منجر به پاسخ‌های قابل پیش‌بینی‌تر و معمولی‌تر می‌شود، در حالی که مقادیر بالاتر تنوع و پاسخ‌های غیرمعمول‌تر را تشویق می‌کند. وقتی مقدار به 0 تنظیم شود، مدل همیشه برای ورودی داده شده یک پاسخ یکسان ارائه می‌دهد. مشاهده مستندات

نوع
FLOAT
مقدار پیش‌فرض
1.00
محدوده
0.00 ~ 2.00
نمونه‌گیری هسته‌ایtop_p

این تنظیمات انتخاب مدل را به درصدی از کلماتی که بالاترین احتمال را دارند محدود می‌کند: فقط کلماتی که احتمال تجمعی آن‌ها به P می‌رسد انتخاب می‌شوند. مقادیر پایین‌تر پاسخ‌های مدل را قابل پیش‌بینی‌تر می‌کند، در حالی که تنظیمات پیش‌فرض به مدل اجازه می‌دهد از کل دامنه کلمات انتخاب کند. مشاهده مستندات

نوع
FLOAT
مقدار پیش‌فرض
1.00
محدوده
0.00 ~ 1.00
تازگی موضوعpresence_penalty

این تنظیمات به منظور کنترل استفاده مجدد از کلمات بر اساس فرکانس ظاهر شدن آن‌ها در ورودی طراحی شده است. این تنظیمات تلاش می‌کند تا از استفاده مکرر از کلماتی که بیشتر در ورودی ظاهر شده‌اند جلوگیری کند و فرکانس استفاده از آن‌ها را متناسب با فرکانس ظاهر شدنشان تنظیم می‌کند. جریمه کلمات با افزایش تعداد تکرار افزایش می‌یابد. مقادیر منفی استفاده مجدد از کلمات را تشویق می‌کند. مشاهده مستندات

نوع
FLOAT
مقدار پیش‌فرض
0.00
محدوده
-2.00 ~ 2.00
جریمه فرکانسfrequency_penalty

این تنظیمات فرکانس استفاده مجدد از کلمات خاصی که در ورودی ظاهر شده‌اند را تنظیم می‌کند. مقادیر بالاتر احتمال تکرار این کلمات را کاهش می‌دهد، در حالی که مقادیر منفی اثر معکوس دارند. جریمه کلمات با افزایش تعداد تکرار افزایش نمی‌یابد. مقادیر منفی استفاده مجدد از کلمات را تشویق می‌کند. مشاهده مستندات

نوع
FLOAT
مقدار پیش‌فرض
0.00
محدوده
-2.00 ~ 2.00
محدودیت پاسخ واحدmax_tokens

این تنظیمات حداکثر طولی که مدل می‌تواند در یک پاسخ واحد تولید کند را تعریف می‌کند. مقادیر بالاتر به مدل اجازه می‌دهد پاسخ‌های طولانی‌تری تولید کند، در حالی که مقادیر پایین‌تر طول پاسخ را محدود کرده و آن را مختصرتر می‌کند. با توجه به سناریوهای مختلف، تنظیم مناسب این مقدار می‌تواند به دستیابی به طول و جزئیات مورد انتظار پاسخ کمک کند. مشاهده مستندات

نوع
INT
مقدار پیش‌فرض
--
شدت استدلالreasoning_effort

این تنظیم برای کنترل شدت استدلال مدل قبل از تولید پاسخ استفاده می‌شود. شدت پایین به سرعت پاسخ‌دهی اولویت می‌دهد و توکن را صرفه‌جویی می‌کند، در حالی که شدت بالا استدلال کامل‌تری ارائه می‌دهد اما توکن بیشتری مصرف کرده و سرعت پاسخ‌دهی را کاهش می‌دهد. مقدار پیش‌فرض متوسط است که تعادل بین دقت استدلال و سرعت پاسخ‌دهی را برقرار می‌کند. مشاهده مستندات

نوع
STRING
مقدار پیش‌فرض
--
محدوده
low ~ high