اَبا اِباد

آنتروپی شانون

آنتروپی شانون

ما معمولا هرکجا اسمی راجع به آنتروپی می‌شنویم، مربوط به جنبه‌ی ترمودینامیکی آن است. ما به طور کلی آنتروپی را به عنوان معیاری از بی‌نظمی تعریف می‌کنیم. مثلا اگر یک لیوان از دستمان بیفتد و به هزار تکه تقسیم شود، می‌گوییم آنتروپی این سیستم افزایش یافت.

همانطور که گفته شد ما معمولا آنتروپی را با همان نگاه ترمودینامیکی می‌بینیم. اما می‌توانیم این مفهوم را به سایر حوزه‌ها نیز تسری دهیم. مثلا می‌توانیم آن را به تئوری اطلاعات تعمیم دهیم و آنتروپی را برای یک متغیر تصادفی تعریف کنیم. به این صورت که بگوییم عدم قطعیت در پیش‌بینی یک متغیر تصادفی چقدر است؟ به چنین آنتروپی، آنتروپی اطلاعات یا شانون آنتروپی Shannon Entropy گفته می‌شود.

کلاود شانون، ریاضیدان بزرگ آمریکایی کسی‌ بود که این نوع آنتروپی را به ما‌ معرفی کرد. اجازه دهید با یکی دو مثال به بررسی آنتروپی شانون بپردازیم. فرض کنید ما یک سکه داریم و قصد داریم آن را پرتاب کنیم. اگر سکه‌ی ما کاملا عادلانه (fair) باشد، یعنی احتمالا آمدن شیر یا خط یکسان و پنجاه درصد باشد، پیش‌بینی نتیجه‌ی پرتاب سکه برای ما بسیار دشوار خواهد بود. یعنی ما‌ هر بار سکه را پرتاب می‌کنیم، پنجاه درصد احتمال دارد که شیر بیاید و پنجاه درصد احتمال دارد که خط بیاید. پس ما با حداکثر عدم قطعیت و حداکثر آنتروپی در نتیجه‌ی پرتاب سکه مواجه هستیم. اما اگر سکه‌ی ما عادلانه نباشد و احتمال شیر آمدن مثلا هفتاد درصد و احتمال خط آمدن سی درصد باشد، سیستم ما پیش‌بینی‌پذیر‌تر است و عدم قطعیت در آن کمتر است. در نتیجه آنتروپی این سیستم نیز کمتر است. حالا ما می‌دانیم که اگر سکه را پرتاب کنیم، آمدن شیر شانس بیشتری دارد.

اما اگر دو طرف این سکه شیر بود چطور؟ در این حالت آنتروپی صفر است و هیچ عدم قطعیتی وجود ندارد. حالا ما هرچقدر سکه را پرتاب کنیم، حتما شیر می‌آید. حالا برویم سراغ مثال پیچیده‌تر. فرض کنید ما یک زبانی داریم که از چهار حرف A و B و C و D تشکیل شده و ما قصد داریم پیام‌هایی را با این چهار حرف ارسال کنیم. اگر احتمال استفاده از هریک از این چهار حرف ۲۵ درصد باشد، ما برای انتقال موثر اطلاعات، به حداقل دو بیت دیتا به ازای هر حرف نیاز داریم. در این حالت آنتروپی حداکثر است و ما به ازای هرکدام از این حروف، به ترتیب از کدهای دو بیتی 00 و 01 و 10 و 11 استفاده می‌کنیم.

حالا فرض کنید که احتمال استفاده از حرف A هفتاد درصد، حرف B بیست و شش درصد، حرف C و حرف D هرکدام دو درصد باشد. در این حالت اگر ما برای حرف A تک بیت 0، برای حرف B دوبیت 10، برای حرف C سه بیت 110 و برای حرف D سه بیت 111 را استفاده کنیم، اگر آن احتمال‌ها را اعمال کنیم، در مجموع ما از ۱/۳۴ بیت استفاده کرده‌ایم. چرا‌ که ۷۰ درصد حروفی که ما در پیاممان به کار می‌بریم، حرف A است که ما برای انتقالش فقط به یک بیت نیاز داریم و برای حرف B فقط به دو بیت نیاز داریم. یعنی در ۹۶ درصد موارد ما به یک یا دو بیت نیاز داریم. حروف C و D که ما برای بیان آن‌ها نیاز به سه بیت داریم خیلی کم در متن ظاهر می‌شوند و ما تنها در چهار درصد موارد نیاز به استفاده از این ۳ بیت داریم. این توزیع غیریکنواخت احتمال منجر به کاهش آنتروپی اطلاعات و همچنین کاهش هزینه‌ی ارتباطی ما می‌شود.

جالب است بدانید آنتروپی زبان انگلیسی از این منظر بسیار پایین است، چرا که احتمال آمدن بعضی حروف مثل a و e در یک کلمه‌ی انگلیسی بسیار بالاتر از حروفی مثل x و z است. آنتروپی کلمات انگلیسی معمولا بیت ۰/۶ تا ۱/۳ بیت است.

– ابا اباد

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *