مركز حلول الذكاء الاصطناعي

الدخول في حقبة جديدة من الإنتاجية مع حلول الذكاء الاصطناعي التوليدي لأعمالك. الاستفادة من الذكاء الاصطناعي المضمن حسب حاجتك إليه على مستوى المجموعة الكاملة.

الذكاء الاصطناعي والتعلم الآلي

التحليلات والذكاء الاصطناعي

الحوسبة

الحاويات

بحيرة البيانات

خدمات المطور

الذكاء الاصطناعي المبتكر

الهوية والأمان

التكامل

السوق

  • توسيع نطاق استدلال NVIDIA NIM

    انشر NVIDIA NIM على محرك OCI Kubernetes للحصول على استدلال فعال وقابل للتطوير باستخدام OCI Object Storage ووحدات معالجة الرسومات NVIDIA للحصول على الأداء الأمثل.

قواعد البيانات المفتوحة المصادر

Oracle Database

التخزين

الاستدلال

تطوير النماذج

الاستخراج والتلخيص

النتائج السياقية (باستخدام RAG)

معالجة اللغات الطبيعية

رؤية الكمبيوتر

التعرف على الكلام

تحليل المشاعر

السيناريوهات النموذجية

الإنشاء باستخدام الذكاء الاصطناعي التوليدي من OCI

شاهد فيديو الحل النموذجي (1:36)

تسخير قوة LLM في خدمة مُدارة

في عالم تطوير البرامج سريع الخطى، يُعد البقاء على اطّلاع أمرًا بالغ الأهمية. تخيّل الحصول على مساعد ذكاء اصطناعي يمكن أن يساعد على تحويل صفحة ويب معقدة بسرعة إلى محتوى صغير الحجم ويمكن استهلاكه ومشاركته بسهولة. هذا أحد الأشياء العديدة التي يمكن للذكاء الاصطناعي التوليدي من Oracle Cloud Infrastructure (OCI) مساعدتك على القيام بها.

فيما يلي مثال على كيفية إنشاء مساعد الذكاء الاصطناعي هذا باستخدام الذكاء الاصطناعي التوليدي من OCI.

يُعد مُلخِّص المشروعات الرائجة المدعومة بالذكاء الاصطناعي GitHub محركًا لإنشاء محتوى شخصي يسترجع ويلخص تلقائيًا أفضل 25 مشروعًا من مشروعات GitHub. يساعد الذكاء الاصطناعي التوليدي من OCI على استخراج ملف README لكل مشروع وقراءته وتجميعه في ملخص موجز وجذاب وغني بالمعلومات يمكن مشاركته مع الآخرين.

جرّبه بنفسك، مع خطوات تفصيلية ونموذج للتعليمات البرمجية على GitHub.

اختيار النماذج

يمكنك التبديل بسهولة بين العديد من نماذج اللغات الكبيرة المقدمة من خلال الذكاء الاصطناعي التوليدي من OCI ببساطة عن طريق تعديل متغير model_id في summarize_llm.py.

  • cohere.command-r-16k: نموذج متعدد الاستخدامات لمهام اللغة العامة، مثل إنشاء النصوص وتلخيصها وترجمتها، بحجم سياق 16K من الرموز المميزة. مثالي لإنشاء الذكاء الاصطناعي للمحادثة مع توازن جيد بين الأداء والفعالية من حيث التكلفة.
  • cohere.command-r-plus: إصدار محسن مع فهم أكثر تطورًا وإمكانات لغوية أعمق. الأفضل للمهام المعقدة التي تتطلب استجابات دقيقة وسعة معالجة أعلى.
  • meta.llama-3.1-70b-instruct: نموذج معلمة 70B مع طول سياق 128K من الرموز المميزة ودعم متعدد اللغات.
  • meta.llama-3.1-405b-instruct: أكبر LLM متاح للجمهور (معلمات 405B) مع إمكانات استثنائية في التفكير وإنشاء البيانات الاصطناعية واستخدام الأدوات. الأفضل لتطبيقات المؤسسة التي تتطلب أقصى أداء.

ما سبق هو مجموعة فرعية من النماذج المتاحة. نحن نعمل باستمرار لتوفير نماذج أحدث.

فيما يلي مقتطف من التعليمات البرمجية لاستدعاء الذكاء الاصطناعي التوليدي من OCI:

content.text = """Generate an abstractive summary of the given Markdown contents. Here are the contents to summarize: {}""".format(summary_txt)


chat_detail.content = content.text 

chat_detail.serving_mode = oci.generative_ai_inference.models.OnDemandServingMode(model_id="meta.llama-3.1-405b-instruct") # configurable model chat_response = generative_ai_inference_client.chat(chat_detail)

استخدام وكلاء الذكاء الاصطناعي التوليدي من OCI مع RAG

شاهد فيديو الحل النموذجي (1:44)

توفير وصول أفضل إلى قواعد المعرفة

يُعد الإنشاء المعزز للاستعادة (RAG) من أهم حالات الاستخدام للذكاء الاصطناعي. يتيح لك RAG زيادة معرفة نموذج لغة كبيرة (LLM) دون إعادة تدريبه. إنها طريقة لـ LLM لاستخراج معلومات جديدة، من قاعدة بيانات أو في أي مكان آخر، وتقديمها بسرعة إلى المستخدم النهائي.

يسمح ذلك لـ LLM بالحصول على معرفة مُحدّثة بغض النظر عن وقت تدريب LLM ووقت تشغيل الاستدلال. ونتيجةً لذلك، يمكن أن تجعل البيانات المُحدّثة LLM أكثر ذكاءً بقليل من الجهد أو دون جهد أصلاً.

بعد تحميل المستندات إلى وكلاء الذكاء الاصطناعي من Oracle Cloud Infrastructure (OCI)، ستعالج الخدمة البيانات وتوفر طريقة لاستهلاكها من خلال روبوتات الدردشة.

جرّبه بنفسك، مع خطوات تفصيلية ونموذج للتعليمات البرمجية على GitHub.

فيما يلي مقتطف من التعليمات البرمجية لاستخدام وكيل RAG في OCI:

# ask a question to RAG agent question = "What steps do I take if I have a new patient under the patient admission recommendations?" # Initialize service client with default config file agent_runtime_client = GenerativeAiAgentRuntimeClient(config)


chat_response = agent_runtime_client.chat( agent_endpoint_id="ocid1.test.oc1..<id>", chat_details=ChatDetails(user_message=question)) 

# Get the data from response print(chat_response.data)

الإنشاء باستخدام Oracle HeatWave GenAI

شاهد فيديو الحل النموذجي (3:54)

تسريع AppDev باستخدام الذكاء الاصطناعي التوليدي المتكامل

يمكن أن يكون الذكاء الاصطناعي التوليدي جيدًا بشكل خاص في المساعدة على تلخيص المشاعر، كما يظهر هذا السيناريو. قد يحتوي موقع تجارة إلكترونية على مئات وحدات حفظ المخزون، أو وحدات SKU، مع عشرات المراجعات لكل منها. للمساعدة في تلخيص مراجعات المنتجات بسرعة، يمكن للمطورين الاستفادة من الإمكانات المتكاملة لـ HeatWave GenAI، باستخدام نماذج اللغات الكبيرة داخل قاعدة البيانات ومخزن متجهات مؤتمت داخل قاعدة البيانات.

يمكن أن يساعد HeatWave GenAI أيضًا في ترجمة المشاعر وتحليلها عند الطلب. يمكن أتمتة جميع العمليات باستخدام HeatWave GenAI، مع تحديث الملخصات عند إضافة مراجعات جديدة.

من خلال الحفاظ على البيانات والمعالجة داخل HeatWave، يمكن للمطورين توسيع نطاق الحلول وفقًا لاحتياجات الذكاء الاصطناعي التوليدي الخاصة بهم، ما يجعل الذكاء الاصطناعي بسيطًا مثل استعلام قاعدة بيانات.

جرّبه بنفسك، مع خطوات تفصيلية ونموذج للتعليمات البرمجية على GitHub.

فيما يلي مقتطف من التعليمات البرمجية يوضح كيفية تلخيص المراجعات الإيجابية:

SELECT "################### Computing summaries for EXISTING reviews on a product ###################" AS "";

SELECT "" AS "";

CALL SUMMARIZE_TRANSLATE(1, "POSITIVE", "en", @positive_english_summary);
SELECT @positive_english_summary AS "--- English summary of positive reviews on the T-Shirt ---";

الإنشاء باستخدام نماذج مفتوحة المصدر على OCI

شاهد فيديو الحل النموذجي (1:30)

الاستفادة من نماذج الذكاء الاصطناعي التوليدي مفتوحة المصدر على منصة موحدة

تُعد أنظمة LLM مفتوحة المصدر، مثل تلك التي أنشأتها Hugging Face، أدوات قوية تتيح للمطورين تجربة حلول الذكاء الاصطناعي التوليدي بسرعة نسبية. يتيح Kubernetes، إلى جانب Oracle Cloud Infrastructure (OCI)، لحلول الذكاء الاصطناعي التوليدي التوسع، مع توفير المرونة وقابلية النقل والمرونة.

في هذا العرض التوضيحي، سترى مدى سهولة نشر حاويات استدلال LLM الدقيقة على OCI Kubernetes Engine، وهي خدمة Kubernetes مُدارة تعمل على تبسيط عمليات النشر والعمليات على نطاق واسع للمؤسسات. تتيح الخدمة للمطورين الاحتفاظ بالنموذج المخصص ومجموعات البيانات داخل مثيل قاعدة البيانات المؤجر الخاص بهم دون الاعتماد على واجهة برمجة تطبيقات استدلال طرف ثالث.

سنستخدم استدلال إنشاء النص كإطار عمل الاستدلال لعرض نماذج LLM.

جرّبه بنفسك، مع خطوات تفصيلية ونموذج للتعليمات البرمجية على GitHub.

فيما يلي مقتطف من التعليمات البرمجية يوضح كيفية نشر نماذج LLM مفتوحة المصدر:

# select model from HuggingFace

model=HuggingFaceH4/zephyr-7b-beta


# deploy selected model
docker run ghcr.io/huggingface/text-generation-inference:2.0 --model-id $model

# invoke the deployed model
curl IP_address:port/generate_stream \
    -X POST \
    -d '{"inputs":"What is Deep Learning?","parameters":{"max_new_tokens":50}}' \
    -H 'Content-Type: application/json'

الإنشاء باستخدام Oracle Code Assist

شاهد فيديو الحل النموذجي (3:40)

تعزيز إنتاجية المطورين وتحسين اتساق التعليمات البرمجية

Oracle Code Assist هو رفيق برمجي يعمل بالذكاء الاصطناعي مصمم للمساعدة في زيادة سرعة المطور وتحسين اتساق التعليمات البرمجية. توفر Oracle Code Assist للمطورين اقتراحات خاصة بالسياق، مدعومة بنماذج اللغات الكبيرة (LLM) على Oracle Cloud Infrastructure (OCI) ودقيقة ومحسنة لـ Java وSQL وتطوير التطبيقات على OCI. يمكنك تخصيصها وفقًا لأفضل الممارسات وقواعد التعليمات البرمجية في مؤسستك.

يتوفر حاليًا البرنامج الإضافي في الإصدار التجريبي لـ JetBrains IntelliJ IDEA وMicrosoft Visual Studio Code، والذي يمكنه المساعدة في الوثائق وفهم التعليمات البرمجية القديمة وإكمال التعليمات البرمجية.

لمعرفة كيفية الانضمام إلى البرنامج التجريبي والبدء، تفضّل بزيارة مستودع GitHub.

مخططات OCI للذكاء الاصطناعي

يمكنك نشر أحمال عمل الذكاء الاصطناعي التوليدي وتوسيعها ومراقبتها في دقائق باستخدام مخططات الذكاء الاصطناعي لبنية Oracle Cloud الأساسية (OCI)، كاملة بتوصيات الأجهزة ومكونات البرامج والمراقبة غير التقليدية.

    • نشر نماذج اللغة الكبيرة وتوسيعها بفعالية باستخدام الاستدلال السريع للصوت والتكامل السلس وعدم وجود متاعب.

    • اختر من بين النماذج المخصصة أو مجموعة متنوعة من النماذج المفتوحة المصدر على Hugging Face.

    • تزويد نقاط توصيل وحدة معالجة الرسومات تلقائيًا وتخزين النماذج في تخزين كائنات OCI.

    • احصل على نقطة انتهاء واجهة برمجة تطبيقات جاهزة للاستخدام لاستدلال النموذج الفوري.

    • تمكين التحجيم التلقائي استنادًا إلى زمن انتقال الاستدلال للتطبيقات الحرجة للمهام.

    • يمكنك دمج أحمال عمل الاستدلال وتوسيعها بسهولة دون خبرة تقنية عميقة.

    • يمكنك مراقبة الأداء باستخدام أدوات إمكانية المراقبة المضمنة، مثل Prometheus وGrafana.

    • الضبط الدقيق بشكل أكثر ذكاءً وليس أصعب - قياس الأداء وتحسين تدريب الذكاء الاصطناعي من خلال الرؤى المستندة إلى البيانات.

    • قياس أداء الضبط الدقيق باستخدام منهجية MLCommons.

    • الضبط الدقيق لنموذج Llama 2 70B الكمي بدقة باستخدام مجموعة بيانات موحدة.

    • تتبع وقت التدريب واستخدام الموارد وقياسات الأداء.

    • تسجيل النتائج تلقائيًا في MLflow وتمثيل الرؤى مرئيًا في Grafana.

    • اتخذ قرارات بنية تحتية قائمة على البيانات لتحسين مهام الضبط الدقيق.

    • عزِّز الضبط الدقيق لنماذج اللغة الكبيرة باستخدام التكيف المنخفض المستوى (LoRA)—أسرع وأكثر كفاءة وجاهز للنشر.

    • استخدم LoRA للضبط الفعال لنماذج اللغة الكبيرة مع الحد الأدنى من الإضافة الحوسبية.

    • استفد من مجموعات البيانات المخصصة أو مجموعات البيانات المتاحة للجمهور من Hugging Face للتدريب.

    • تتبع وحلل مقاييس التدريب التفصيلية التي تم تسجيل الدخول إليها في MLflow خلال عملية الضبط.

    • خزّن نتائج التدريب والنموذج المضبوط في حزمة تخزين الكائنات للنشر السلس.

    • حسِّن الأداء من خلال تصميم يساعد في ضمان تكيف سريع وفعال للنماذج دون استخدام كثيف للموارد.

    • يمكنك توسيع نطاق الحل حسب الحاجة، بدءًا من مجموعات البيانات الصغيرة إلى ضبط النماذج على نطاق واسع.