الدخول في حقبة جديدة من الإنتاجية مع حلول الذكاء الاصطناعي التوليدي لأعمالك. الاستفادة من الذكاء الاصطناعي المضمن حسب حاجتك إليه على مستوى المجموعة الكاملة.
تعاون Oracle مع xAI لتقديم نماذج Grok إلى OCI
تعرف على كيفية إنشاء نظام RAG ذكي على OCI باستخدام وكلاء الذكاء الاصطناعي لاتخاذ القرارات المتقدمة.
قم بتمكين تفاعل بيانات اللغة الطبيعية في الوقت الفعلي مع NL2SQL وOracle Autonomous Database المستندين إلى الذكاء الاصطناعي.
تعرف على كيفية نشر روبوت دردشة قائم على RAG باستخدام Oracle Database 23ai وGoogle Vertex AI على GCP.
في عالم تطوير البرامج سريع الخطى، يُعد البقاء على اطّلاع أمرًا بالغ الأهمية. تخيّل الحصول على مساعد ذكاء اصطناعي يمكن أن يساعد على تحويل صفحة ويب معقدة بسرعة إلى محتوى صغير الحجم ويمكن استهلاكه ومشاركته بسهولة. هذا أحد الأشياء العديدة التي يمكن للذكاء الاصطناعي التوليدي من Oracle Cloud Infrastructure (OCI) مساعدتك على القيام بها.
فيما يلي مثال على كيفية إنشاء مساعد الذكاء الاصطناعي هذا باستخدام الذكاء الاصطناعي التوليدي من OCI.
يُعد مُلخِّص المشروعات الرائجة المدعومة بالذكاء الاصطناعي GitHub محركًا لإنشاء محتوى شخصي يسترجع ويلخص تلقائيًا أفضل 25 مشروعًا من مشروعات GitHub. يساعد الذكاء الاصطناعي التوليدي من OCI على استخراج ملف README لكل مشروع وقراءته وتجميعه في ملخص موجز وجذاب وغني بالمعلومات يمكن مشاركته مع الآخرين.
جرّبه بنفسك، مع خطوات تفصيلية ونموذج للتعليمات البرمجية على GitHub.
يمكنك التبديل بسهولة بين العديد من نماذج اللغات الكبيرة المقدمة من خلال الذكاء الاصطناعي التوليدي من OCI ببساطة عن طريق تعديل متغير model_id
في summarize_llm.py
.
ما سبق هو مجموعة فرعية من النماذج المتاحة. نحن نعمل باستمرار لتوفير نماذج أحدث.
فيما يلي مقتطف من التعليمات البرمجية لاستدعاء الذكاء الاصطناعي التوليدي من OCI:
content.text = """Generate an abstractive summary of the given Markdown contents. Here are the contents to summarize: {}""".format(summary_txt)
chat_detail.content = content.text
chat_detail.serving_mode = oci.generative_ai_inference.models.OnDemandServingMode(model_id="meta.llama-3.1-405b-instruct") # configurable model chat_response = generative_ai_inference_client.chat(chat_detail)
يُعد الإنشاء المعزز للاستعادة (RAG) من أهم حالات الاستخدام للذكاء الاصطناعي. يتيح لك RAG زيادة معرفة نموذج لغة كبيرة (LLM) دون إعادة تدريبه. إنها طريقة لـ LLM لاستخراج معلومات جديدة، من قاعدة بيانات أو في أي مكان آخر، وتقديمها بسرعة إلى المستخدم النهائي.
يسمح ذلك لـ LLM بالحصول على معرفة مُحدّثة بغض النظر عن وقت تدريب LLM ووقت تشغيل الاستدلال. ونتيجةً لذلك، يمكن أن تجعل البيانات المُحدّثة LLM أكثر ذكاءً بقليل من الجهد أو دون جهد أصلاً.
بعد تحميل المستندات إلى وكلاء الذكاء الاصطناعي من Oracle Cloud Infrastructure (OCI)، ستعالج الخدمة البيانات وتوفر طريقة لاستهلاكها من خلال روبوتات الدردشة.
جرّبه بنفسك، مع خطوات تفصيلية ونموذج للتعليمات البرمجية على GitHub.
فيما يلي مقتطف من التعليمات البرمجية لاستخدام وكيل RAG في OCI:
# ask a question to RAG agent question = "What steps do I take if I have a new patient under the patient admission recommendations?" # Initialize service client with default config file agent_runtime_client = GenerativeAiAgentRuntimeClient(config)
chat_response = agent_runtime_client.chat( agent_endpoint_id="ocid1.test.oc1..<id>", chat_details=ChatDetails(user_message=question))
# Get the data from response print(chat_response.data)
تدعم Oracle Database 23ai جميع أنواع البيانات الحديثة وأحمال العمل، بما في ذلك المتجهات، وتدمج إمكانات الذكاء الاصطناعي والتعلم الآلي مباشرةً داخل قاعدة البيانات. من خلال إنشاء عمليات تضمين المتجهات وتخزينها للبيانات المعنية، يمكن للمطورين تمكين عمليات البحث عن أوجه التشابه الدلالية باستخدام العمليات الحسابية الرياضية. تتيح هذه التقنية الجمع بين عمليات البحث عن أوجه التشابه وعمليات البحث على بيانات العمل باستخدام SQL بسيط، بحيث يمكن لأي شخص لديه فهم أساسي لـ SQL الاستفادة من قوته.
من خلال تشغيل Oracle APEX (منصة تطبيقات منخفضة التعليمات البرمجية) فوق Oracle Database 23ai، تصبح إمكانات البحث عن متجهات الذكاء الاصطناعي من Oracle متاحة بشكل أصلي دون تكلفة إضافية. يمكن لمطوري APEX تضمين وظائف البحث المتقدمة هذه بسلاسة في تطبيقاتهم، ما يؤدي إلى نتائج أكثر دقة ووعيًا بالسياق.
سينفّذ هذا السيناريو بحثًا دلاليًا في Oracle APEX باستخدام البحث عن متجهات الذكاء الاصطناعي في Oracle Database 23ai.
اقرأ منشور المدونة حول السيناريو.
فيما يلي تعليمة برمجية لتحويل أوصاف الصور إلى متجهات وتخزينها في قاعدة البيانات:
UPDATE SM_POSTS
SET
AI_IMAGE_VECTOR = TO_VECTOR(VECTOR_EMBEDDING ( DOC_MODEL
USING AI_IMAGE_DESCRIPTION AS DATA
));
الآن بعد أن أصبح لدينا متجهات، يمكننا استخدامها لإجراء عمليات بحث دلالي. في هذا العرض التوضيحي، يمكننا القيام بذلك في الاستعلام المصدر لمنطقة البطاقات:
SELECT A.*, TO_CHAR(ROUND(VECTOR_DISTANCE,2), '0.99')AS VECTOR_DISTANCE_DISPLAY FROM
(SELECT
p.id,
p.user_name,
p.comment_text,
p.file_blob,
p.file_mime,
p.post_date,
p.REACTIONS,
p.USER_REACTION_CSS,
p.CREATED,
(
CASE
WHEN :P1_SEARCH IS NOT NULL AND :P1_VECTOR_SEARCH = 'Y'
THEN VECTOR_DISTANCE (
TO_VECTOR(VECTOR_EMBEDDING (doc_model USING :P1_SEARCH AS data)),
ai_image_vector
)
ELSE NULL
END
) AS vector_distance,
ai_image_description
FROM
mv_SM_POSTS p
WHERE
(:P1_VECTOR_SEARCH <> 'Y' AND :P1_SEARCH IS NOT NULL AND UPPER(ai_image_description) LIKE UPPER('%'||:P1_SEARCH||'%'))
OR :P1_VECTOR_SEARCH = 'Y'
OR :P1_SEARCH IS NULL
ORDER BY
vector_distance ASC, p.CREATED asc) A
تتيح Oracle Database 23ai مع البحث عن متجهات الذكاء الاصطناعي، بالإضافة إلى Oracle APEX، للمطورين إنشاء تطبيقات واعية بالسياق بسرعة مع إمكانية تحسين البحث.
يمكن أن يكون الذكاء الاصطناعي التوليدي جيدًا بشكل خاص في المساعدة على تلخيص المشاعر، كما يظهر هذا السيناريو. قد يحتوي موقع تجارة إلكترونية على مئات وحدات حفظ المخزون، أو وحدات SKU، مع عشرات المراجعات لكل منها. للمساعدة في تلخيص مراجعات المنتجات بسرعة، يمكن للمطورين الاستفادة من الإمكانات المتكاملة لـ HeatWave GenAI، باستخدام نماذج اللغات الكبيرة داخل قاعدة البيانات ومخزن متجهات مؤتمت داخل قاعدة البيانات.
يمكن أن يساعد HeatWave GenAI أيضًا في ترجمة المشاعر وتحليلها عند الطلب. يمكن أتمتة جميع العمليات باستخدام HeatWave GenAI، مع تحديث الملخصات عند إضافة مراجعات جديدة.
من خلال الحفاظ على البيانات والمعالجة داخل HeatWave، يمكن للمطورين توسيع نطاق الحلول وفقًا لاحتياجات الذكاء الاصطناعي التوليدي الخاصة بهم، ما يجعل الذكاء الاصطناعي بسيطًا مثل استعلام قاعدة بيانات.
جرّبه بنفسك، مع خطوات تفصيلية ونموذج للتعليمات البرمجية على GitHub.
فيما يلي مقتطف من التعليمات البرمجية يوضح كيفية تلخيص المراجعات الإيجابية:
SELECT "################### Computing summaries for EXISTING reviews on a product ###################" AS "";
SELECT "" AS "";
CALL SUMMARIZE_TRANSLATE(1, "POSITIVE", "en", @positive_english_summary);
SELECT @positive_english_summary AS "--- English summary of positive reviews on the T-Shirt ---";
تُعد أنظمة LLM مفتوحة المصدر، مثل تلك التي أنشأتها Hugging Face، أدوات قوية تتيح للمطورين تجربة حلول الذكاء الاصطناعي التوليدي بسرعة نسبية. يتيح Kubernetes، إلى جانب Oracle Cloud Infrastructure (OCI)، لحلول الذكاء الاصطناعي التوليدي التوسع، مع توفير المرونة وقابلية النقل والمرونة.
في هذا العرض التوضيحي، سترى مدى سهولة نشر حاويات استدلال LLM الدقيقة على OCI Kubernetes Engine، وهي خدمة Kubernetes مُدارة تعمل على تبسيط عمليات النشر والعمليات على نطاق واسع للمؤسسات. تتيح الخدمة للمطورين الاحتفاظ بالنموذج المخصص ومجموعات البيانات داخل مثيل قاعدة البيانات المؤجر الخاص بهم دون الاعتماد على واجهة برمجة تطبيقات استدلال طرف ثالث.
سنستخدم استدلال إنشاء النص كإطار عمل الاستدلال لعرض نماذج LLM.
جرّبه بنفسك، مع خطوات تفصيلية ونموذج للتعليمات البرمجية على GitHub.
فيما يلي مقتطف من التعليمات البرمجية يوضح كيفية نشر نماذج LLM مفتوحة المصدر:
# select model from HuggingFace
model=HuggingFaceH4/zephyr-7b-beta
# deploy selected model
docker run ghcr.io/huggingface/text-generation-inference:2.0 --model-id $model
# invoke the deployed model
curl IP_address:port/generate_stream \
-X POST \
-d '{"inputs":"What is Deep Learning?","parameters":{"max_new_tokens":50}}' \
-H 'Content-Type: application/json'
Oracle Code Assist هو رفيق برمجي يعمل بالذكاء الاصطناعي مصمم للمساعدة في زيادة سرعة المطور وتحسين اتساق التعليمات البرمجية. توفر Oracle Code Assist للمطورين اقتراحات خاصة بالسياق، مدعومة بنماذج اللغات الكبيرة (LLM) على Oracle Cloud Infrastructure (OCI) ودقيقة ومحسنة لـ Java وSQL وتطوير التطبيقات على OCI. يمكنك تخصيصها وفقًا لأفضل الممارسات وقواعد التعليمات البرمجية في مؤسستك.
يتوفر حاليًا البرنامج الإضافي في الإصدار التجريبي لـ JetBrains IntelliJ IDEA وMicrosoft Visual Studio Code، والذي يمكنه المساعدة في الوثائق وفهم التعليمات البرمجية القديمة وإكمال التعليمات البرمجية.
لمعرفة كيفية الانضمام إلى البرنامج التجريبي والبدء، تفضّل بزيارة مستودع GitHub.
يمكنك نشر أحمال عمل الذكاء الاصطناعي التوليدي وتوسيعها ومراقبتها في دقائق باستخدام مخططات الذكاء الاصطناعي لبنية Oracle Cloud الأساسية (OCI)، كاملة بتوصيات الأجهزة ومكونات البرامج والمراقبة غير التقليدية.
نشر نماذج اللغة الكبيرة وتوسيعها بفعالية باستخدام الاستدلال السريع للصوت والتكامل السلس وعدم وجود متاعب.
اختر من بين النماذج المخصصة أو مجموعة متنوعة من النماذج المفتوحة المصدر على Hugging Face.
تزويد نقاط توصيل وحدة معالجة الرسومات تلقائيًا وتخزين النماذج في تخزين كائنات OCI.
احصل على نقطة انتهاء واجهة برمجة تطبيقات جاهزة للاستخدام لاستدلال النموذج الفوري.
تمكين التحجيم التلقائي استنادًا إلى زمن انتقال الاستدلال للتطبيقات الحرجة للمهام.
يمكنك دمج أحمال عمل الاستدلال وتوسيعها بسهولة دون خبرة تقنية عميقة.
يمكنك مراقبة الأداء باستخدام أدوات إمكانية المراقبة المضمنة، مثل Prometheus وGrafana.
الضبط الدقيق بشكل أكثر ذكاءً وليس أصعب - قياس الأداء وتحسين تدريب الذكاء الاصطناعي من خلال الرؤى المستندة إلى البيانات.
قياس أداء الضبط الدقيق باستخدام منهجية MLCommons.
الضبط الدقيق لنموذج Llama 2 70B الكمي بدقة باستخدام مجموعة بيانات موحدة.
تتبع وقت التدريب واستخدام الموارد وقياسات الأداء.
تسجيل النتائج تلقائيًا في MLflow وتمثيل الرؤى مرئيًا في Grafana.
اتخذ قرارات بنية تحتية قائمة على البيانات لتحسين مهام الضبط الدقيق.
عزِّز الضبط الدقيق لنماذج اللغة الكبيرة باستخدام التكيف المنخفض المستوى (LoRA)—أسرع وأكثر كفاءة وجاهز للنشر.
استخدم LoRA للضبط الفعال لنماذج اللغة الكبيرة مع الحد الأدنى من الإضافة الحوسبية.
استفد من مجموعات البيانات المخصصة أو مجموعات البيانات المتاحة للجمهور من Hugging Face للتدريب.
تتبع وحلل مقاييس التدريب التفصيلية التي تم تسجيل الدخول إليها في MLflow خلال عملية الضبط.
خزّن نتائج التدريب والنموذج المضبوط في حزمة تخزين الكائنات للنشر السلس.
حسِّن الأداء من خلال تصميم يساعد في ضمان تكيف سريع وفعال للنماذج دون استخدام كثيف للموارد.
يمكنك توسيع نطاق الحل حسب الحاجة، بدءًا من مجموعات البيانات الصغيرة إلى ضبط النماذج على نطاق واسع.