درجة BLEU هي مقياس يستخدم على نطاق واسع لتقييم أداء نماذج الترجمة الآلية. يقيس التشابه بين الترجمة المُنشأة آليًا وترجمة مرجعية واحدة أو أكثر. في سياق نموذج ترجمة مخصص تم تدريبه باستخدام ترجمة AutoML ، يمكن أن توفر درجة BLEU رؤى قيمة حول جودة وفعالية مخرجات النموذج.
لفهم كيفية استخدام درجة BLEU ، من المهم أولاً فهم المفاهيم الأساسية. BLEU هي اختصار للتقييم ثنائي اللغة ، وقد تم تطويرها كطريقة لتقييم جودة الترجمات الآلية تلقائيًا من خلال مقارنتها بالترجمات المرجعية التي ينشئها الإنسان. تتراوح الدرجة من 0 إلى 1 ، مع وجود درجة أعلى تشير إلى ترجمة أفضل.
AutoML Translation هي أداة قوية يقدمها Google Cloud AI Platform والتي تتيح للمستخدمين تدريب نماذج الترجمة المخصصة باستخدام بياناتهم الخاصة. بمجرد تدريب النموذج ، يمكن استخدامه لإنشاء ترجمات لنص إدخال جديد. يمكن بعد ذلك استخدام درجة BLEU لتقييم جودة هذه الترجمات.
لحساب درجة BLEU ، تتم مقارنة الترجمات الناتجة عن النموذج بترجمة مرجعية واحدة أو أكثر. تستند المقارنة إلى n-grams ، وهي سلاسل متجاورة من n من الكلمات. لا تأخذ درجة BLEU في الحسبان دقة عدد n-grams في الترجمة الناتجة عن النموذج فحسب ، بل أيضًا وجودها في الترجمات المرجعية. يساعد هذا في التعرف على مدى كفاية وطلاقة الترجمات.
دعنا نوضح هذا بمثال. لنفترض أن لدينا ترجمة مرجعية: "القطة تجلس على السجادة". ويولد النموذج الترجمة التالية: "القطة تجلس على الحصيرة". يمكننا تقسيم هذه الجمل إلى n-grams:
المرجع: ["The"، "cat"، "is"، "sit"، "on"، "the"، "mat"] النموذج: ["The"، "cat"، "sits"، "on"، "the"، "mat"]
في هذه الحالة ، يقوم النموذج بترجمة غالبية n-grams بشكل صحيح ، لكنه يفتقد فعل الفعل ("is" vs. "sits"). ستعكس درجة BLEU هذا من خلال تخصيص درجة أقل للترجمة.
يمكن حساب نتيجة BLEU باستخدام طرق مختلفة ، مثل الدقة المعدلة وعقوبة الإيجاز. تفسر الدقة المعدلة حقيقة أن الترجمة يمكن أن تحتوي على تكرارات متعددة لـ n-gram ، بينما تعاقب عقوبة الإيجاز الترجمات الأقصر بكثير من الترجمات المرجعية.
من خلال تقييم درجة BLEU لنموذج ترجمة مخصص تم تدريبه باستخدام AutoML Translation ، يمكن للمستخدمين اكتساب رؤى حول أداء النموذج وتحديد مجالات التحسين. يمكنهم مقارنة درجات BLEU للنماذج أو التكرارات المختلفة لتتبع التقدم واتخاذ قرارات مستنيرة حول اختيار النموذج أو ضبطه.
تعتبر درجة BLEU مقياسًا قيمًا لتقييم أداء نماذج الترجمة المخصصة المدربة باستخدام AutoML Translation. يوفر مقياسًا كميًا لجودة الترجمات التي يتم إنشاؤها آليًا من خلال مقارنتها بالترجمات المرجعية. من خلال تحليل درجة BLEU ، يمكن للمستخدمين تقييم فعالية نماذجهم واتخاذ قرارات تعتمد على البيانات لتحسين جودة الترجمة.
أسئلة وأجوبة أخرى حديثة بخصوص ترجمة AutoML:
- ما هي الخطوات المتبعة في إنشاء نموذج ترجمة مخصص باستخدام AutoML Translation؟
- كيف تقوم ترجمة AutoML بسد الفجوة بين مهام الترجمة العامة والمفردات المتخصصة؟
- ما هو دور ترجمة AutoML في إنشاء نماذج ترجمة مخصصة لمجالات معينة؟
- كيف يمكن أن تكون نماذج الترجمة المخصصة مفيدة للمصطلحات والمفاهيم المتخصصة في التعلم الآلي والذكاء الاصطناعي؟