الإنتروبيا الثنائية، والمعروفة أيضًا باسم إنتروبيا شانون، هي مفهوم في نظرية المعلومات يقيس عدم اليقين أو العشوائية لمتغير عشوائي ثنائي مع نتيجتين. وهو يختلف عن الإنتروبيا الكلاسيكية في أنه ينطبق بشكل خاص على المتغيرات الثنائية، في حين يمكن تطبيق الإنتروبيا الكلاسيكية على المتغيرات مع أي عدد من النتائج.
لفهم الإنتروبيا الثنائية، يجب علينا أولاً أن نفهم مفهوم الإنتروبيا نفسها. الإنتروبيا هي مقياس لمتوسط كمية المعلومات أو عدم اليقين الموجود في متغير عشوائي. إنه يحدد مدى عدم القدرة على التنبؤ بنتائج المتغير العشوائي. وبعبارة أخرى، فإنه يخبرنا عن مقدار "المفاجأة" التي يمكن أن نتوقعها عند مراقبة نتائج متغير عشوائي.
في حالة وجود متغير عشوائي ثنائي له نتيجتين، دعنا نشير إلى هذه النتائج على أنها 0 و 1. يتم حساب الإنتروبيا الثنائية لهذا المتغير، والتي يشار إليها بـ H(X)، باستخدام الصيغة:
H(X) = -p(0) * log2(p(0)) – p(1) * log2(p(1))
حيث p(0) وp(1) هما احتمالات مراقبة النتائج 0 و1 على التوالي. يتم أخذ اللوغاريتم إلى الأساس 2 للتأكد من قياس قيمة الإنتروبيا الناتجة بالبت.
لحساب الإنتروبيا الثنائية، نحتاج إلى تحديد احتمالات النتيجتين. إذا كانت الاحتمالات متساوية، أي p(0) = p(1) = 0.5، فسيتم تعظيم الإنتروبيا الثنائية، مما يشير إلى الحد الأقصى من عدم اليقين. وذلك لأن كلا النتيجتين متساويتان في الاحتمال، ولا يمكننا التنبؤ بأي منهما سيحدث. في هذه الحالة، الإنتروبيا الثنائية هي H(X) = -0.5 * log2(0.5) – 0.5 * log2(0.5) = 1 بت.
من ناحية أخرى، إذا كانت إحدى النتائج أكثر احتمالا من الأخرى، فسيتم تقليل الإنتروبيا الثنائية، مما يشير إلى قدر أقل من عدم اليقين. على سبيل المثال، إذا كانت p(0) = 0.8 وp(1) = 0.2، فإن الإنتروبيا الثنائية هي H(X) = -0.8 * log2(0.8) – 0.2 * log2(0.2) ≈ 0.72 بت. وهذا يعني أننا، في المتوسط، نحتاج إلى أقل من بت واحد من المعلومات لتمثيل نتائج هذا المتغير العشوائي الثنائي.
من المهم أن نلاحظ أن الإنتروبيا الثنائية تكون دائمًا غير سالبة، مما يعني أنها أكبر من أو تساوي الصفر. يتم تعظيمها عندما تكون احتمالات النتيجتين متساوية وتصغر عندما يكون احتمال إحداهما 1 والأخرى احتمالها 0.
يقيس الإنتروبيا الثنائية عدم اليقين أو العشوائية لمتغير عشوائي ثنائي مع نتيجتين. يتم حسابها باستخدام الصيغة -p(0) * log2(p(0)) – p(1) * log2(p(1)) حيث p(0) وp(1) هما احتمالات النتيجتين . يتم قياس قيمة الإنتروبيا الناتجة بالبت، حيث تشير القيم الأعلى إلى قدر أكبر من عدم اليقين والقيم المنخفضة تشير إلى قدر أقل من عدم اليقين.
أسئلة وأجوبة أخرى حديثة بخصوص الانتروبيا الكلاسيكية:
- كيف يساهم فهم الإنتروبيا في تصميم وتقييم خوارزميات التشفير القوية في مجال الأمن السيبراني؟
- ما هي القيمة القصوى للإنتروبيا ومتى يتم تحقيقها؟
- تحت أي ظروف تختفي إنتروبيا المتغير العشوائي، وماذا يعني ذلك بالنسبة للمتغير؟
- ما هي الخصائص الرياضية للإنتروبيا، ولماذا هي غير سلبية؟
- كيف تتغير إنتروبيا المتغير العشوائي عندما يتم توزيع الاحتمال بالتساوي بين النتائج مقارنة عندما يكون متحيزًا نحو نتيجة واحدة؟
- ما هي العلاقة بين الطول المتوقع للكلمات البرمجية وانتروبيا المتغير العشوائي في التشفير المتغير الطول؟
- اشرح كيفية استخدام مفهوم الإنتروبيا الكلاسيكية في أنظمة الترميز ذات الطول المتغير لترميز المعلومات بكفاءة.
- ما هي خصائص الإنتروبيا الكلاسيكية وكيف ترتبط باحتمالية النتائج؟
- كيف يمكن للإنتروبيا الكلاسيكية قياس عدم اليقين أو العشوائية في نظام معين؟