أهم النقاط الرئيسية
- خمسة مستويات لـ reasoning effort: تتحكم المعلمة
reasoning.effort(none، low، medium، high، xhigh) في المقايضة بين التكلفة والجودة لكل طلب -- حيث يتصرف مستوىnoneمثل نموذج غير مفكر (الأسرع/الأرخص)، بينما يوفر مستوىxhighأقصى عمق بتكلفة تتراوح بين 3-5x. - استخدام الكمبيوتر الأصلي عبر API: يمكن لـ GPT-5.4 تشغيل تطبيقات سطح المكتب، والنقر على الأزرار، والتنقل في واجهات المستخدم بشكل مستقل، محققاً نتيجة 75% في OSWorld (متجاوزاً خط الأساس للخبير البشري البالغ 72.4%) -- ويتم تمكين ذلك عبر تمرير نوع أداة
computer_use. - سياق 1M+ token بتكلفة $2.50/$15: تعالج نافذة الإدخال المكونة من 1,050,000-token قواعد الأكواد بالكامل في طلب واحد، على الرغم من أن تسعير الإدخال يتضاعف بعد 272K tokens.
- تكلفة GPT-5.4 Pro تزيد بمقدار 12x: احتفظ بمتغير Pro الذي تبلغ تكلفته $30/$180 لكل مليون token للمهام عالية المخاطر حيث تكون الدقة أمراً حاسماً -- واعتمد بشكل افتراضي على GPT-5.4 القياسي لغالبية أعباء العمل.
دليل مطوري GPT-5.4 API: جهد الاستنتاج، استخدام الكمبيوتر، وأمثلة الأكواد
March 11, 2026 -- يعد GPT-5.4 أقوى نموذج لـ OpenAI حتى الآن، ويأتي مزوداً بميزات API تغير بشكل ملموس كيفية البناء باستخدامه. جهد استنتاج قابل للتعديل، استخدام أصلي للكمبيوتر، نافذة سياق تزيد عن 1M+ token، وتوليد أكواد مُحسَّن بشكل كبير -- كل ذلك من خلال نفس نقطة نهاية Chat Completions التي تعرفها بالفعل.
هذا الدليل مخصص للمطورين الذين يرغبون في بدء البناء باستخدام GPT-5.4 API اليوم. لا يوجد كلام تسويقي. فقط معرفات النماذج، المعلمات، أمثلة الأكواد، حسابات التسعير، والمقايضات العملية التي تحتاج إلى اتخاذها.
البداية السريعة
معرفات النماذج (Model IDs)
| Model | API ID | الأفضل لـ |
|---|---|---|
| GPT-5.4 | gpt-5.4 | المهام عامة الأغراض، البرمجة، الاستنتاج، استخدام الكمبيوتر |
| GPT-5.4 Pro | gpt-5.4-pro | الدقة القصوى في المهام المعقدة وعالية المخاطر |
أول مكالمة API لك
from openai import OpenAI
client = OpenAI()
response = client.chat.completions.create(
model="gpt-5.4",
messages=[
{"role": "user", "content": "Explain the tradeoffs between B-trees and LSM-trees for write-heavy workloads."}
]
)
print(response.choices[0].message.content)
هذا كل شيء. إذا كنت قد استخدمت أي نموذج GPT من خلال Chat Completions API، فإن GPT-5.4 هو بديل مباشر. الاختلافات تكمن في المعلمات والقدرات الجديدة.
الأسعار (Pricing)
| Model | Input | Output | ملاحظات |
|---|---|---|---|
| GPT-5.4 | $2.50 / 1M tokens | $15.00 / 1M tokens | الإدخال يتضاعف بعد 272K tokens |
| GPT-5.4 Pro | $30.00 / 1M tokens | $180.00 / 1M tokens | 12x تكلفة النسخة القياسية |
نافذة السياق: 1,050,000 tokens للإدخال، 128,000 tokens كحد أقصى للإخراج.
متطلبات الوصول: حساب API مدفوع مع إنفاق سابق لا يقل عن $5 (Tier 1). غير متوفر في المستوى المجاني.
جهد الاستنتاج (Reasoning Effort): التحكم في ميزانية التفكير
أهم معلمة جديدة في GPT-5.4 هي reasoning.effort. وهي تتحكم في مقدار الحوسبة الداخلية التي يخصصها النموذج لعملية استنتاج سلسلة الأفكار (chain-of-thought) قبل إنتاج الاستجابة.
المستويات الخمسة
| المستوى | السلوك | متى يُستخدم |
|---|---|---|
none | لا توجد سلسلة أفكار. الأسرع والأرخص. يتصرف مثل نموذج غير مفكر. | التحويلات البسيطة، التنسيق، الاستخراج |
low | استنتاج أدنى. فحوصات سريعة للمنطق. | الأسئلة والأجوبة المباشرة، التصنيف، التلخيص |
medium | استنتاج متوازن. هذا هو الافتراضي. | البرمجة العامة، التحليل، معظم أعباء عمل الإنتاج |
high | سلاسل استنتاج ممتدة. أكثر شمولاً. | تصحيح الأخطاء المعقدة، قرارات الهندسة المعمارية، المنطق متعدد الخطوات |
xhigh | أقصى عمق للاستنتاج. الأبطأ ولكن الأكثر دقة. | الرياضيات الصعبة، إعادة صياغة الأكواد الكبيرة، تدقيق الأمان، البحث |
مثال كود: ضبط جهد الاستنتاج
from openai import OpenAI
client = OpenAI()
# High reasoning for a complex refactoring task
response = client.chat.completions.create(
model="gpt-5.4",
reasoning={"effort": "high"},
messages=[
{"role": "user", "content": "Refactor this function to use async/await and handle all edge cases for network failures, timeouts, and partial responses:\n\ndef fetch_all_pages(url):\n results = []\n while url:\n resp = requests.get(url)\n data = resp.json()\n results.extend(data['items'])\n url = data.get('next')\n return results"}
]
)
توجيهات عملية بشأن مستويات الاستنتاج
ابدأ بمستوى medium وقم بالتعديل. بالنسبة لمعظم أعباء عمل API، الخيار الافتراضي هو القرار الصحيح. إليك كيفية التفكير في الأمر:
-
المسارات الحساسة للـ Latency (الإكمال التلقائي، الدردشة، واجهات المستخدم في الوقت الفعلي): استخدم
lowأوnone. الفرق في السرعة كبير، وبالنسبة لمهام مثل تنسيق النصوص أو عمليات البحث البسيطة، فإن الاستنتاج الإضافي لا يضيف أي قيمة. -
المعالجة بالدفعة (Batch processing) (خطوط تدقيق الأكواد، تحليل المستندات، استخراج البيانات): استخدم
high. أنت لا تعطل مستخدماً، لذا فإن Latency الإضافي لا يهم، وتتحسن الدقة بشكل تراكمي عبر مئات العناصر. -
الطلبات الفردية عالية المخاطر (تدقيق أمان لقاعدة أكواد، تخطيط هجرة معقدة، تصميم خوارزمية جديدة): استخدم
xhigh. هنا تؤتي الحوسبة بمقدار 12x ثمارها.
الآثار المترتبة على التكلفة: يعني جهد الاستنتاج الأعلى أنه يتم توليد المزيد من tokens الداخلية (وتتم محاسبتك عليها). يمكن أن يكلف الطلب بمستوى xhigh ما بين 3--5x أكثر من نفس الطلب بمستوى low. راقب استهلاكك للـ tokens عند تغيير المستويات.
Computer Use API
يعد GPT-5.4 أول نموذج عام الأغراض يتمتع بقدرات native computer-use. في معيار OSWorld، سجل 75% -- متجاوزاً خط الأساس للخبير البشري البالغ 72.4%. هذا ليس مجرد غلاف حول لقطات الشاشة. النموذج يفهم واجهات سطح المكتب بشكل أصلي ويمكنه تشغيلها بشكل مستقل.
كيف يعمل
- تقوم بإرسال طلب يصف ما تريد القيام به
- يقوم النموذج بأخذ لقطات شاشة للبيئة المستهدفة
- يقوم بتوليد نقرات الماوس، ومدخلات لوحة المفاتيح، وإجراءات التنقل
- ينفذ حلقة "بناء-تشغيل-تحقق-إصلاح" للتحقق من عمله الخاص
- يعيد النتائج أو يطلب توضيحاً
مثال كود: Computer Use
from openai import OpenAI
client = OpenAI()
response = client.chat.completions.create(
model="gpt-5.4",
tools=[{"type": "computer_use"}],
messages=[
{"role": "user", "content": "Open the browser, go to github.com, and create a new repository called 'my-project'"}
]
)
ما يمكن لـ Computer Use فعله
- أتمتة المتصفح: ملء النماذج، التنقل في سير العمل متعدد الخطوات، كشط البيانات المنظمة من الصفحات الديناميكية
- تشغيل تطبيقات سطح المكتب: فتح التطبيقات، التفاعل مع واجهات المستخدم الأصلية، نقل البيانات بين البرامج
- سير عمل الاختبار: النقر عبر تدفقات واجهة المستخدم، التحقق من الحالات المرئية، إجراء تسلسلات الإعداد (onboarding)
- إدخال البيانات: نقل البيانات بين جداول البيانات، وأنظمة CRM، والأدوات الداخلية
قيود يجب معرفتها
- Latency: تتضمن كل دورة عمل لقطة شاشة، واستنتاج النموذج، وتنفيذ الإجراء. تستغرق المهام متعددة الخطوات وقتاً فعلياً.
- الإشراف مطلوب: لا تقم بتشغيل computer use دون إشراف على الأنظمة الحساسة. يمكن للنموذج أن ينقر بشكل خاطئ، أو يسيء تفسير عناصر واجهة المستخدم، أو يتخذ إجراءات غير مقصودة.
- إعداد البيئة: يتطلب computer use بيئة عرض. بالنسبة للأتمتة من جانب الخادم، تحتاج إلى شاشة افتراضية (مثل Xvfb على Linux أو سطح مكتب افتراضي).
- لا يوجد وصول لنظام الملفات بشكل افتراضي: يعمل computer use من خلال واجهة المستخدم، وليس عبر استدعاءات نظام الملفات المباشرة. قم بدمجه مع أدوات تنفيذ الأكواد لسير عمل هجين.
البرمجة باستخدام GPT-5.4
يرث GPT-5.4 ويحسن قدرات البرمجة الموجودة في GPT-5.3 Codex. المعايير المرجعية تحكي القصة:
| المعيار المرجعي | نتيجة GPT-5.4 | ما الذي يختبره |
|---|---|---|
| SWE-Bench Pro | 57.7% | حل مشكلات GitHub في العالم الحقيقي |
| SWE-Bench Verified | ~80% | مجموعة مختارة من SWE-Bench |
| Terminal-Bench 2.0 | 75.1% | مهام التطوير القائمة على Terminal |
ما المختلف عن GPT-5.3 Codex
- 47% tokens أقل في المهام المعقدة -- مخرجات أقل إسهاباً، وأكواد أكثر إحكاماً
- تغييرات في ملفات متعددة مع محاولات إعادة أقل -- فهم أفضل للتبعيات بين الملفات
- يتبع الأنماط الخاصة بالمستودع -- يتكيف مع اتفاقيات قاعدة الأكواد الخاصة بك عند إعطائه السياق
- 33% أخطاء واقعية أقل -- هلوسة أقل في مراجع API، واستخدام المكتبات، والتكوين
نصائح لتوليد أكواد أفضل
1. استخدم system prompts لتعيين معايير البرمجة.
response = client.chat.completions.create(
model="gpt-5.4",
reasoning={"effort": "high"},
messages=[
{"role": "system", "content": "You are a senior Python developer. Follow PEP 8. Use type hints. Write docstrings in Google style. Prefer composition over inheritance. Use dataclasses for DTOs."},
{"role": "user", "content": "Implement a retry decorator with exponential backoff, jitter, and configurable max retries."}
]
)
2. زود النموذج بالكود الفعلي الخاص بك للسياق. تعني نافذة سياق GPT-5.4 التي تبلغ 1M token أنه يمكنك تضمين وحدات كاملة أو حتى مستودعات كاملة. ينتج النموذج أكواداً أفضل بكثير عندما يتمكن من رؤية الأنماط والأنواع والاتفاقيات الحالية.
3. اضبط جهد الاستنتاج على high أو xhigh للتغييرات المعقدة. تعمل إصلاحات الأخطاء البسيطة بشكل جيد عند مستوى medium ، ولكن إعادة صياغة البنية المعمارية، وعمليات الهجرة، والتغييرات في ملفات متعددة تستفيد بشكل ملموس من جهد الاستنتاج الأعلى.
4. استخدم max_completion_tokens لمنع الاستجابات الجامحة. لتوليد الأكواد، ضع حداً معقولاً حتى لا تتم محاسبتك على تفسيرات مطولة لم تطلبها.
response = client.chat.completions.create(
model="gpt-5.4",
messages=[...],
max_completion_tokens=4096
)
استراتيجيات السياق الكبير (Large Context)
تعد نافذة السياق البالغة 1,050,000-token هي القوة الخارقة الهادئة لـ GPT-5.4. إليك كيفية استخدامها بفعالية -- وتجنب فخاخ التكلفة.
رسوم الـ 272K الإضافية
يتضاعف تسعير الإدخال بمجرد تجاوزك لـ 272K tokens في طلب واحد. هذا يعني أن طلباً يحتوي على 500K-token يكلف تقريباً:
- أول 272K tokens: 272K x $2.50/1M = $0.68
- الـ 228K tokens المتبقية: 228K x $5.00/1M = $1.14
- إجمالي تكلفة الإدخال: $1.82
للمقارنة، سيكلف نفس الطلب بالتسعير القياسي $1.25. تضيف الرسوم الإضافية ~46% إلى الفاتورة في هذه الحالة.
مثال كود: استخدام السياق الكبير
from openai import OpenAI
client = OpenAI()
# Load entire codebase into context
with open("codebase_dump.txt", "r") as f:
full_codebase_content = f.read()
response = client.chat.completions.create(
model="gpt-5.4",
messages=[
{"role": "system", "content": full_codebase_content}, # up to 1M tokens
{"role": "user", "content": "Find all security vulnerabilities in this codebase"}
],
max_completion_tokens=8192
)
أفضل الممارسات للسياقات الكبيرة
افعل:
- ضع الملفات الأكثر صلة في البداية. يولي النموذج اهتماماً أكبر لبداية ونهاية السياق. ضع الملفات الأكثر صلة بالمهمة أولاً.
- استخدم system message للمواد المرجعية. ضع قاعدة الأكواد الخاصة بك، أو الوثائق، أو البيانات في system message. ضع تعليماتك الفعلية في user message.
- حدد
max_completion_tokensبشكل صريح. مع حد أقصى للإخراج يبلغ 128K، يمكن أن تصبح الاستجابة غير المقيدة في سياق كبير مكلفة بسرعة.
لا تفعل:
- لا تستخدم دائماً النافذة الكاملة. إذا كانت مهمتك تحتاج فقط إلى 50K tokens من السياق، فلا تملأها لتصل إلى 1M. أنت تدفع مقابل input tokens سواء احتاج النموذج إليها أم لا.
- لا تتجاهل حد الـ 272K. قم بهيكلة طلباتك لتبقى تحت 272K كلما أمكن ذلك. إذا كنت عند 280K، فانظر ما إذا كان يمكنك قص 10K tokens من السياق الأقل صلة لتوفير الرسوم الإضافية.
- لا تتوقع استرجاعاً مثالياً عبر 1M tokens. يتدهور الأداء تدريجياً مع طول السياق. للحصول على أعلى دقة، احتفظ بالمعلومات الأكثر أهمية ضمن أول 200K tokens.
GPT-5.4 مقابل GPT-5.4 Pro: متى يجب الترقية
تكلف نسخة GPT-5.4 Pro حوالي 12x أكثر من GPT-5.4 القياسي. إليك متى يكون ذلك مبرراً.
| البعد | GPT-5.4 | GPT-5.4 Pro |
|---|---|---|
| تكلفة الإدخال | $2.50 / 1M | $30.00 / 1M |
| تكلفة الإخراج | $15.00 / 1M | $180.00 / 1M |
| الأفضل لـ | معظم مهام التطوير | الدقة القصوى في المشكلات الصعبة |
| عمق الاستنتاج | قوي في جميع المستويات | استنتاج داخلي أعمق بشكل افتراضي |
| Latency | قياسي | أعلى (مزيد من الحوسبة لكل طلب) |
استخدم GPT-5.4 القياسي عندما:
- تقوم ببناء تطبيقات إنتاج بتكاليف يمكن التنبؤ بها
- المهام محددة جيداً (CRUD، التحويلات، البرمجة القياسية)
- تحتاج إلى Latency أقل للميزات المواجهة للمستخدمين
- تقوم بمعالجة أحجام كبيرة من الطلبات
استخدم GPT-5.4 Pro عندما:
- تهم الدقة في طلب واحد أكثر من التكلفة (التحليل القانوني، الأبحاث الطبية، تدقيق الأمان)
- تتعامل مع مشكلات جديدة لم ير النموذج أمثلة كثيرة عليها
- تحتاج سلاسل الاستنتاج متعددة الخطوات إلى أن تكون محكمة تماماً
- تقوم بإجراء مقارنات معيارية تنافسية أو تقييمات
القاعدة العملية: اعتمد النسخة القياسية كخيار افتراضي. قم بتشغيل أصعب حالات الاختبار الخاصة بك من خلال كلا النموذجين. إذا أنتج Pro نتائج أفضل باستمرار في عبء العمل المحدد الخاص بك، فقم بتحويل تلك الطلبات المحددة إلى Pro واترك كل شيء آخر على النسخة القياسية.
الهجرة من GPT-5.3 Codex
إذا كنت تستخدم حالياً GPT-5.3 Codex (أو GPT-5.2-Codex)، فإليك الاختلافات الرئيسية التي يجب التخطيط لها.
ما الذي سيتغير
| المجال | GPT-5.3 Codex | GPT-5.4 |
|---|---|---|
| معرف النموذج (Model ID) | gpt-5.3-codex | gpt-5.4 |
| نافذة السياق | 1,000,000 tokens | 1,050,000 tokens |
| Computer use | غير متوفر | دعم أصلي |
| جهد الاستنتاج | مدعوم | مدعوم (نفس المعلمة) |
| التسعير (الإدخال) | يختلف حسب المتغير | $2.50 / 1M tokens |
| التسعير (الإخراج) | يختلف حسب المتغير | $15.00 / 1M tokens |
| كفاءة الـ Token | خط الأساس | 47% tokens أقل في المهام المعقدة |
قائمة مراجعة الهجرة
- استبدال معرف النموذج. قم بتغيير
gpt-5.3-codexإلىgpt-5.4في مكالمات API الخاصة بك. - اختبر إعدادات جهد الاستنتاج. توجد نفس مستويات الجهد (من
noneإلىxhigh) ، ولكن قد ينتج GPT-5.4 مقايضات جودة مختلفة عند كل مستوى. أعد تقييم إعداداتك الافتراضية. - راجع ميزانيات output token. يعد GPT-5.4 أكثر إيجازاً (47% tokens أقل في المهام المعقدة). قد تتمكن من خفض
max_completion_tokensوتوفير تكاليف الإخراج. - تقييم computer use. إذا كان لديك حلول بديلة لأتمتة واجهة المستخدم (برامج Selenium النصية، أدوات مخصصة)، فقد يحل computer use الأصلي في GPT-5.4 محلها.
- انتبه لرسوم الـ 272K الإضافية. إذا كانت أعباء عمل Codex الخاصة بك تستخدم سياقات كبيرة ولكنها ظلت تحت هيكل تسعير Codex، فأعد حساب التكاليف مع تسعير الإدخال المتدرج لـ GPT-5.4.
ما الذي سيبقى كما هو
- نقطة نهاية Chat Completions API متطابقة تماماً
- تعمل أدوار رسائل system/user/assistant بنفس الطريقة
- الـ Streaming، استدعاء الوظائف (function calling)، واستخدام الأدوات (tool use) كلها متوافقة
- بناء جملة المعلمة
reasoningلم يتغير
نظرة سريعة على المعايير المرجعية (Benchmarks)
للمرجع السريع، إليك أداء GPT-5.4 عبر المعايير المرجعية الأكثر أهمية للمطورين:
| المعيار المرجعي | النتيجة | ما الذي يقيسه |
|---|---|---|
| SWE-Bench Pro | 57.7% | هندسة البرمجيات المعقدة في العالم الحقيقي |
| SWE-Bench Verified | ~80% | حل مشكلات GitHub المنسقة |
| Terminal-Bench 2.0 | 75.1% | البرمجة القائمة على Terminal ومهام النظام |
| OSWorld | 75.0% | تشغيل كمبيوتر سطح المكتب (خط الأساس البشري: 72.4%) |
| GDPval | 83% | العمل المعرفي المهني عبر 44 مهنة |
مقاييس جودة إضافية:
- 33% أخطاء واقعية أقل مقارنة بـ GPT-5.2
- 18% استجابات أقل تحتوي على أي أخطاء بشكل عام
ملخص
GPT-5.4 ليس تغييراً ثورياً في API -- بل هو تغيير عملي. نفس نقطة النهاية، نفس تنسيق الرسائل، نفس أنماط استخدام الأدوات. الجديد هو أن لديك الآن تحكماً دقيقاً في حوسبة الاستنتاج، واستخداماً أصلياً للكمبيوتر دون أدوات خارجية، ونافذة سياق كبيرة بما يكفي لقواعد أكواد كاملة، ومخرجات أكواد أفضل بكثير.
الأشياء الثلاثة التي يجب القيام بها الآن:
- اضبط
reasoning.effortعمداً. لا تعتمد على الوضع الافتراضي لكل مكالمة. طابق مستوى الجهد مع تعقيد المهمة وميزانية الـ Latency/التكلفة الخاصة بك. - جرب computer use. إذا كان لديك أي سير عمل لأتمتة واجهة المستخدم، فاختبرها مقابل قدرات computer use الأصلية في GPT-5.4. قد تتمكن من إيقاف برامج Selenium النصية الهشة.
- قم بتدقيق استخدامك للسياق. مع حدود رسوم الـ 272K الإضافية ونافذة الـ 1M، هناك أموال حقيقية يمكن توفيرها (أو إهدارها) اعتماداً على كيفية هيكلة طلباتك.
النموذج متاح الآن عند المعرف gpt-5.4 لحسابات API من المستوى Tier 1+. ابدأ البناء.