لاستخراج جميع التعليقات التوضيحية للكائنات من استجابة واجهة برمجة التطبيقات (API) في مجال الذكاء الاصطناعي – Google Vision API – الفهم المتقدم للصور – اكتشاف الكائنات، يمكنك الاستفادة من تنسيق الاستجابة الذي توفره واجهة برمجة التطبيقات (API)، والذي يتضمن قائمة بالكائنات المكتشفة مع ما يقابلها المربعات المحيطة وعشرات الثقة. من خلال تحليل هذه الاستجابة، يمكنك استخراج التعليقات التوضيحية للكائن المطلوب.
تتكون استجابة واجهة برمجة التطبيقات عادةً من كائن JSON يحتوي على حقول متنوعة، بما في ذلك حقل "localizedObjectAnnotations"، الذي يحتوي على الكائنات المكتشفة. يتضمن كل تعليق توضيحي للكائن معلومات مثل اسم الكائن وإحداثيات المربع المحيط به ودرجة الثقة التي تشير إلى ثقة واجهة برمجة التطبيقات (API) في الاكتشاف.
لاستخراج التعليقات التوضيحية للكائن، يمكنك اتباع الخطوات التالية:
1. تحليل استجابة واجهة برمجة التطبيقات: ابدأ بتحليل استجابة JSON المستلمة من واجهة برمجة التطبيقات. يمكن القيام بذلك باستخدام مكتبة تحليل JSON أو الوظائف المضمنة التي توفرها لغة البرمجة الخاصة بك.
2. قم بالوصول إلى حقل "localizedObjectAnnotations": بمجرد تحليل الاستجابة، قم بالوصول إلى حقل "localizedObjectAnnotations"، الذي يحتوي على الكائنات المكتشفة. عادةً ما يكون هذا الحقل عبارة عن مجموعة من التعليقات التوضيحية للكائنات.
3. التكرار من خلال التعليقات التوضيحية للكائن: التكرار من خلال كل تعليق توضيحي للكائن في المصفوفة. يمثل كل تعليق توضيحي كائنًا تم اكتشافه في الصورة.
4. استخراج المعلومات ذات الصلة: استخرج المعلومات ذات الصلة من كل تعليق توضيحي للكائن، مثل اسم الكائن، وإحداثيات المربع المحيط، ودرجة الثقة. يمكن الوصول إلى هذه التفاصيل كحقول منفصلة داخل كل تعليق توضيحي للكائن.
5. تخزين المعلومات المستخرجة أو معالجتها: وفقًا لمتطلباتك، يمكنك تخزين المعلومات المستخرجة في بنية بيانات أو معالجتها بشكل أكبر للتحليل أو لأغراض أخرى. على سبيل المثال، قد ترغب في تخزين أسماء الكائنات وإحداثيات المربع المحيط بها في قاعدة بيانات أو استخدامها لمزيد من مهام فهم الصورة.
إليك مثال مبسط لتوضيح عملية الاستخراج:
python import json # Assume 'response' contains the API response in JSON format response =
{
"التعليقات التوضيحية للكائن المحلي": [
{
"منتصف": "/م/01g317"،
"الاسم": "قطة"،
"النتيجة": 0.89271355،
"الحدود بولي": {
"الرؤوس الطبيعية": [
{"س": 0.1234، "ص": 0.5678}،
{"س": 0.5678، "ص": 0.1234}
] }
},
{
"منتصف": "/م/04ركي"،
"الاسم": "كلب"،
"النتيجة": 0.8132468،
"الحدود بولي": {
"الرؤوس الطبيعية": [
{"س": 0.4321، "ص": 0.8765}،
{"س": 0.8765، "ص": 0.4321}
] }
}
]}
# Parse the API response response_data = json.loads(response) # Access the object annotations annotations = response_data['localizedObjectAnnotations'] # Iterate through the object annotations for annotation in annotations: # Extract relevant information object_name = annotation['name'] bounding_box = annotation['boundingPoly']['normalizedVertices'] confidence = annotation['score'] # Process or store the extracted information print(f"Object: {object_name}, Bounding Box: {bounding_box}, Confidence: {confidence}") # Output: # Object: cat, Bounding Box: [{'x': 0.1234, 'y': 0.5678}, {'x': 0.5678, 'y': 0.1234}], Confidence: 0.89271355 # Object: dog, Bounding Box: [{'x': 0.4321, 'y': 0.8765}, {'x': 0.8765, 'y': 0.4321}], Confidence: 0.8132468
في هذا المثال، نفترض أن استجابة JSON تحتوي على كائنين تم اكتشافهما: قطة وكلب. يقوم الكود بتوزيع الاستجابة، والوصول إلى حقل "localizedObjectAnnotations"، والتكرار من خلال كل تعليق توضيحي للكائن، واستخراج اسم الكائن، وإحداثيات المربع المحيط، ودرجة الثقة. وأخيرًا، تتم طباعة المعلومات المستخرجة، ولكن يمكنك تعديل الكود ليناسب احتياجاتك الخاصة.
باتباع هذه الخطوات، يمكنك استخراج جميع التعليقات التوضيحية للكائن بشكل فعال من استجابة واجهة برمجة التطبيقات (API) في مجال الذكاء الاصطناعي – Google Vision API – الفهم المتقدم للصور – اكتشاف الكائنات.
أسئلة وأجوبة أخرى حديثة بخصوص فهم الصور المتقدم:
- ما هي بعض الفئات المحددة مسبقًا للتعرف على الكائنات في Google Vision API؟
- ما هو الأسلوب الموصى به لاستخدام ميزة اكتشاف البحث الآمن مع تقنيات الإشراف الأخرى؟
- كيف يمكننا الوصول إلى قيم الاحتمالية لكل فئة وعرضها في التعليق التوضيحي للبحث الآمن؟
- كيف يمكننا الحصول على شرح البحث الآمن باستخدام Google Vision API في بايثون؟
- ما هي الفئات الخمس المضمنة في ميزة اكتشاف البحث الآمن؟
- كيف تكتشف ميزة البحث الآمن في Google Vision API المحتوى الصريح داخل الصور؟
- كيف يمكننا تحديد الكائنات المكتشفة وإبرازها بصريًا في الصورة باستخدام مكتبة الوسائد؟
- كيف يمكننا تنظيم معلومات الكائن المستخرجة بتنسيق جدولي باستخدام إطار بيانات الباندا؟
- ما المكتبات ولغة البرمجة المستخدمة لتوضيح وظائف Google Vision API؟
- كيف تقوم Google Vision API باكتشاف الكائنات وتوطينها في الصور؟
عرض المزيد من الأسئلة والأجوبة في الفهم المتقدم للصور