مدلهای چت، یگ سری از پیامها را به عنوان ورودی میپذیرند و یک پیام نوشته شده توسط AI را به عنوان خروجی برمیگردانند. این راهنما با چند نمونه فراخوانی API فرمت چت را نشان میدهد.
برای اجرای کدهای زیر ابتدا باید یک کلید API را از طریق پنل کاربری گیلاس تولید کنید. برای این کار ابتدا یک حساب کاربری جدید بسازید یا اگر صاحب حساب کاربری هستید وارد پنل کاربری خود شوید. سپس، به صفحه کلید API بروید و با کلیک روی دکمه “ساخت کلید API” یک کلید جدید برای دسترسی به Gilas API بسازید.
1# if needed, install and/or upgrade to the latest version of the OpenAI Python library
2%pip install --upgrade openai
1# imports
2from openai import OpenAI # for calling the OpenAI API
3import os # for getting API token from env variable OPENAI_API_KEY
4
5client = OpenAI(
6 api_key=os.environ.get(("GILAS_API_KEY", "<کلید API خود را اینجا بسازید https://dashboard.gilas.io/apiKey>")),
7 base_url="https://api.gilas.io/v1/" # Gilas APIs
8)
مثالی از فراخوانی Chat Completions API #
برای فراخوانی Chat Completions API پارامترهای زیر باید به مدل ارسال شوند:
model
: نام مدلی که میخواهید استفاده کنید (مانندgpt-4o-mini
,gpt-4-turbo
)messages
: لیستی از شیءهای پیام، جایی که هر شیء دو فیلد ضروری دارد:role
: نقش فرستنده پیام (system
،user
،assistant
یاtool
)content
: محتوای پیام (مثلاً نوشتن یک شعر زیبا)
پیامها همچنین میتوانند یک فیلد اختیاری name
را شامل شوند، که به فرستنده نام میدهد. مثلاً example-user
، Hichkas
. نامها نباید شامل فاصله باشند.
پارامترهای اختیاری:
frequency_penalty
: توکنها را بر اساس تعداد تکرارشان جریمه میکند، در نتیجه تکرار توکنها را کم میکند.logit_bias
: احتمال توکنهای مشخصی را با مقادیر bias تغییر میدهد.logprobs
: اگرtrue
باشد، log احتمالات توکنهای خروجی را برمیگرداند.top_logprobs
: تعداد توکنهای بیشتر محتمل را برای بازگرداندن در هر موقعیت مشخص میکند.max_tokens
: حداکثر تعداد توکنهای تولید شده در پاسخ را تنظیم میکند.n
: تعداد مشخصی از پاسخ را برای هر ورودی تولید میکند.presence_penalty
: توکنهای جدید را بر اساس حضورشان در متن جریمه میکند.response_format
: فرمت خروجی را مشخص میکند، مثلاً حالت JSON.seed
: با یکseed
مشخص، نمونهگیری قطعی را تضمین میکند.stop
: تا 4 دنباله را مشخص میکند که API باید در آنها تولید توکن را متوقف کند.stream
: دلتاهای پیامهای جزئی را به محض تولید توکن جدید میفرستد.temperature
: درجه نمونهبرداری را بین 0 و 2 تنظیم میکند.top_p
: از نمونهبرداری هسته استفاده میکند؛ توکنهای با top_p حجم احتمال را در نظر میگیرد.tools
: فهرست توابعی که مدل ممکن است صدا بزند.tool_choice
: تماسهای تابع مدل را کنترل میکند (none/auto/function).user
: شناسه یکتا برای نظارت بر کاربر نهایی و تشخیص سوء استفاده.
از ژانویه 2024، میتوانید یک لیست از توابع را ارسال کنید که به GPT بگوید آیا میتواند یک JSON را برای ورودی به یک تابع تولید کند. این پست مثالهای جالبی را در مورد نحوه فراخوانی توابع با استفاده از LLM ارایه میدهد.
معمولاً، یک گفتگو با پیام system
آغاز میشود که به assistant
میگوید چگونه رفتار کند، و پس از آن پیامهای user
و assistant
به نوبت دنبال میشوند، هر چند مجبور به دنبال کردن این فرمت نیستید. ما معمولا با استفاده از پیام system
مدل را برنامه ریزی یا به عبارتی مهندسی پرامپت میکنیم.
بیایید نگاهی به یک نمونه فراخوانی API چت بیندازیم تا ببینیم فرمت چت در عمل چگونه کار میکند.
1# Example OpenAI Python library request
2MODEL = "gpt-4o-mini"
3response = client.chat.completions.create(
4 model=MODEL,
5 messages=[
6 {"role": "system", "content": "You are a helpful assistant."},
7 {"role": "user", "content": "نوروز چه روزی است؟"},
8 ],
9 temperature=0,
10)
11
12print(json.dumps(json.loads(response.model_dump_json()), indent=4))
{
"id": "chatcmpl-8dee9DuEFcg2QILtT2a6EBXZnpirM",
"choices": [
{
"finish_reason": "stop",
"index": 0,
"logprobs": null,
"message": {
"content": "نوروز اولین روز فصل بهار است.",
"role": "assistant",
"function_call": null,
"tool_calls": null
}
}
],
"created": 1704461729,
"model": "gpt-4o-mini",
"object": "chat.completion",
"system_fingerprint": null,
"usage": {
"completion_tokens": 3,
"prompt_tokens": 35,
"total_tokens": 38
}
}
همانطور که میبینید، شیء پاسخ دارای چند فیلد است:
id
: شناسه درخواستchoices
: لیستی از اشیاء تکمیل (فقط یکی، مگر اینکه شما n را بیشتر از 1 تنظیم کنید)finish_reason
: دلیلی که مدل تولید متن را متوقف کرده است (یاstop
، یاlength
اگر حدmax_tokens
رسیده باشد)index
: ایندکس انتخاب در لیست.logprobs
: اطلاعات احتمال لاگ برای انتخاب.message
: شیء پیام تولید شده توسط مدلcontent
: محتوای پیامrole
: نقش نویسنده این پیام.tool_calls
: فراخوانیهای ابزار تولید شده توسط مدل، مانند فذاخوانیهای تابع. اگر ابزار داده شده باشد
created
: زمان درخواستmodel
: نام کامل مدل استفاده شده برای تولید پاسخobject
: نوع شیء برگشتی (مثلاً chat.completion)system_fingerprint
: اثر انگشت، پیکربندی پشتیبانی که مدل با آن اجرا میشود را نشان میدهد.usage
: تعداد توکنهای استفاده شده برای تولید پاسخها، شامل پرامپت، تکمیل و کل
برای اینکه فقط پاسخ مدل را ببینید:
Few-shot prompting #
در برخی موارد، راحتتر است که آنچه را که میخواهید به مدل نشان دهید. یک راه برای انجام این کار، نشان دادن چند نمونه از روش حل یک مسیله به مدل است.
برای مثال:
1# An example of a faked few-shot conversation to prime the model into translating business jargon to simpler speech
2response = client.chat.completions.create(
3 model=MODEL,
4 messages=[
5 {"role": "system", "content": "You are a helpful, pattern-following assistant."},
6 {"role": "user", "content": "Help me translate the following corporate jargon into plain English."},
7 {"role": "assistant", "content": "Sure, I'd be happy to!"},
8 {"role": "user", "content": "New synergies will help drive top-line growth."},
9 {"role": "assistant", "content": "Things working well together will increase revenue."},
10 {"role": "user", "content": "Let's circle back when we have more bandwidth to touch base on opportunities for increased leverage."},
11 {"role": "assistant", "content": "Let's talk later when we're less busy about how to do better."},
12 {"role": "user", "content": "This late pivot means we don't have time to boil the ocean for the client deliverable."},
13 ],
14 temperature=0,
15)
16
17print(response.choices[0].message.content)
Fractions represent parts of a whole. They have a numerator (top number) and a denominator (bottom number).
برای کمک به روشن کردن اینکه پیامهای نمونه بخشی از یک گفتگوی واقعی نیستند و نباید توسط مدل به آنها ارجاع داده شود، میتوانید سعی کنید فیلد name
پیامهای system
را به example_user
و example_assistant
تنظیم کنید.
مثال:
1# The business jargon translation example, but with example names for the example messages
2response = client.chat.completions.create(
3 model=MODEL,
4 messages=[
5 {"role": "system", "content": "You are a helpful, pattern-following assistant that translates corporate jargon into plain English."},
6 {"role": "system", "name":"example_user", "content": "New synergies will help drive top-line growth."},
7 {"role": "system", "name": "example_assistant", "content": "Things working well together will increase revenue."},
8 {"role": "system", "name":"example_user", "content": "Let's circle back when we have more bandwidth to touch base on opportunities for increased leverage."},
9 {"role": "system", "name": "example_assistant", "content": "Let's talk later when we're less busy about how to do better."},
10 {"role": "user", "content": "This late pivot means we don't have time to boil the ocean for the client deliverable."},
11 ],
12 temperature=0,
13)
14
15print(response.choices[0].message.content)
This sudden change in direction means we don't have enough time to complete the entire project for the client.
معمولا برای رسیدن به نتیجه مطلوب باید روشهای مختلف را همراه با پیامهای گوناگون امتحان کنید. در صورت علاقه میتوانید این دوره کامل مهندسی پرامپت را تماشا کنید.
شمارش توکنها #
وقتی درخواست خود را ارسال میکنید، API پیامها را به دنبالهای از توکنها تبدیل میکند.
تعداد توکنهای استفاده شده بر:
- هزینه درخواست
- زمان لازم برای تولید پاسخ تاثیر میگذارد.
برای مطالعه بیشتر درباره شمارش توکنها پست شمردن تعداد توکنها با tiktoken مطالعه کنید.