AIQ
بازگشت به اکتشاف
Mistral

Codestral Mamba

open-codestral-mamba
Codestral Mamba یک مدل زبان Mamba 2 است که بر تولید کد تمرکز دارد و پشتیبانی قدرتمندی برای وظایف پیشرفته کدنویسی و استدلال ارائه می‌دهد.
256K

ارائه‌دهندگان پشتیبانی شده برای این مدل

Mistral
MistralMistral
Mistralopen-codestral-mamba
حداکثر طول محتوا
256K
حداکثر طول خروجی
--
قیمت ورودی
$0.15
قیمت خروجی
$0.15
Higress
Mistralopen-codestral-mamba
حداکثر طول محتوا
256K
حداکثر طول خروجی
--
قیمت ورودی
$0.15
قیمت خروجی
$0.15

پارامترهای مدل

تصادفی بودن
temperature

این تنظیمات بر تنوع پاسخ‌های مدل تأثیر می‌گذارد. مقادیر پایین‌تر منجر به پاسخ‌های قابل پیش‌بینی‌تر و معمولی‌تر می‌شود، در حالی که مقادیر بالاتر تنوع و پاسخ‌های غیرمعمول‌تر را تشویق می‌کند. وقتی مقدار به 0 تنظیم شود، مدل همیشه برای ورودی داده شده یک پاسخ یکسان ارائه می‌دهد. مشاهده مستندات

نوع
FLOAT
مقدار پیش‌فرض
1.00
محدوده
0.00 ~ 2.00
نمونه‌گیری هسته‌ای
top_p

این تنظیمات انتخاب مدل را به درصدی از کلماتی که بالاترین احتمال را دارند محدود می‌کند: فقط کلماتی که احتمال تجمعی آن‌ها به P می‌رسد انتخاب می‌شوند. مقادیر پایین‌تر پاسخ‌های مدل را قابل پیش‌بینی‌تر می‌کند، در حالی که تنظیمات پیش‌فرض به مدل اجازه می‌دهد از کل دامنه کلمات انتخاب کند. مشاهده مستندات

نوع
FLOAT
مقدار پیش‌فرض
1.00
محدوده
0.00 ~ 1.00
تازگی موضوع
presence_penalty

این تنظیمات به منظور کنترل استفاده مجدد از کلمات بر اساس فرکانس ظاهر شدن آن‌ها در ورودی طراحی شده است. این تنظیمات تلاش می‌کند تا از استفاده مکرر از کلماتی که بیشتر در ورودی ظاهر شده‌اند جلوگیری کند و فرکانس استفاده از آن‌ها را متناسب با فرکانس ظاهر شدنشان تنظیم می‌کند. جریمه کلمات با افزایش تعداد تکرار افزایش می‌یابد. مقادیر منفی استفاده مجدد از کلمات را تشویق می‌کند. مشاهده مستندات

نوع
FLOAT
مقدار پیش‌فرض
0.00
محدوده
-2.00 ~ 2.00
جریمه فرکانس
frequency_penalty

این تنظیمات فرکانس استفاده مجدد از کلمات خاصی که در ورودی ظاهر شده‌اند را تنظیم می‌کند. مقادیر بالاتر احتمال تکرار این کلمات را کاهش می‌دهد، در حالی که مقادیر منفی اثر معکوس دارند. جریمه کلمات با افزایش تعداد تکرار افزایش نمی‌یابد. مقادیر منفی استفاده مجدد از کلمات را تشویق می‌کند. مشاهده مستندات

نوع
FLOAT
مقدار پیش‌فرض
0.00
محدوده
-2.00 ~ 2.00
محدودیت پاسخ واحد
max_tokens

این تنظیمات حداکثر طولی که مدل می‌تواند در یک پاسخ واحد تولید کند را تعریف می‌کند. مقادیر بالاتر به مدل اجازه می‌دهد پاسخ‌های طولانی‌تری تولید کند، در حالی که مقادیر پایین‌تر طول پاسخ را محدود کرده و آن را مختصرتر می‌کند. با توجه به سناریوهای مختلف، تنظیم مناسب این مقدار می‌تواند به دستیابی به طول و جزئیات مورد انتظار پاسخ کمک کند. مشاهده مستندات

نوع
INT
مقدار پیش‌فرض
--
شدت استدلال
reasoning_effort

این تنظیم برای کنترل شدت استدلال مدل قبل از تولید پاسخ استفاده می‌شود. شدت پایین به سرعت پاسخ‌دهی اولویت می‌دهد و توکن را صرفه‌جویی می‌کند، در حالی که شدت بالا استدلال کامل‌تری ارائه می‌دهد اما توکن بیشتری مصرف کرده و سرعت پاسخ‌دهی را کاهش می‌دهد. مقدار پیش‌فرض متوسط است که تعادل بین دقت استدلال و سرعت پاسخ‌دهی را برقرار می‌کند. مشاهده مستندات

نوع
STRING
مقدار پیش‌فرض
--
محدوده
low ~ high

مدل‌های مرتبط

Mistral

Mistral Nemo

open-mistral-nemo
Mistral Nemo یک مدل 12 میلیاردی است که با همکاری Nvidia توسعه یافته و عملکرد عالی در استدلال و کدنویسی ارائه می‌دهد و به راحتی قابل ادغام و جایگزینی است.
128K
Mistral

Mistral Small

mistral-small-latest
Mistral Small یک گزینه مقرون‌به‌صرفه، سریع و قابل‌اعتماد است که برای موارد استفاده‌ای مانند ترجمه، خلاصه‌سازی و تحلیل احساسات مناسب است.
128K
Mistral

Mistral Large

mistral-large-latest
Mistral Large یک مدل بزرگ پرچمدار است که در انجام وظایف چندزبانه، استدلال پیچیده و تولید کد مهارت دارد و انتخابی ایده‌آل برای کاربردهای سطح بالا است.
128K
Mistral

Codestral

codestral-latest
Codestral یک مدل پیشرفته تولید کد است که بر تولید کد تمرکز دارد و برای وظایف تکمیل کد و پر کردن میان‌متن بهینه‌سازی شده است.
32K
Mistral

Pixtral Large

pixtral-large-latest
Pixtral Large یک مدل چندرسانه‌ای متن‌باز با ۱۲۴۰ میلیارد پارامتر است که بر اساس Mistral Large 2 ساخته شده است. این دومین مدل در خانواده چندرسانه‌ای ماست که توانایی‌های پیشرفته‌ای در درک تصویر را به نمایش می‌گذارد.
128K