اَبا اِباد

کلاود شانون
کلاود شانون، از بزرگترین ریاضیدانان قرن بیستم و پدر نظریه‌ی اطلاعات

آنتروپی شانون

یکی از جذاب‌ترین اتفاقات علمی برای من، وقتی‌ست که شاخه‌های مختلف علم به یکدیگر می‌رسند و بر یکدیگر تاثیر می‌گذارند. به همین خاطر همواره علاقه‌ی ویژه‌ای به حوزه‌های بین رشته‌ای (interdisciplinary) داشته ام. محض مثال، تلاقی حوزه‌های مختلف فیزیک با نظریه‌ی اطلاعات، یکی از موضوعات بسیار جذاب است که سابقه‌ی آن به قرن بیستم و کارهای کلاود شانون باز می‌گردد. محض مثال مفهوم آنتروپی یک مفهوم فیزیکی یا به عبارت دقیق‌تر ترمودینامیکی است.

ما آنتروپی را به عنوان معیاری از بی‌نظمی می‌شناسیم. آنتروپی یک ظرف یخ از آنتروپی یک ظرف آب کمتر است. چرا که یخ از کریستال‌هایی تشکیل شده که مولکول‌های آبی درون این شبکه‌ی کریستالی حبس شده است. اما مولکول‌های آب درون یک ظرف آب، آزادانه‌ به هر طرف می‌روند و نسبت به مولکول‌های آب درون یخ، بی‌نظمی بیشتری دارند. و باز هم به همین دلیل آنتروپی یک محفظه‌ی حاوی بخار آب باز هم بیشتر است. چرا که این مولکول‌ها آزادانه‌تر در فضا حرکت می‌کنند و آنتروپی این ظرف بخار بیشتر است.

اما اجازه دهید آنتروپی را به نظریه‌ی اطلاعات ربط دهیم و ببینیم این دو با هم چه چیزی می‌سازند. اصلا ببینیم آنتروپی با دانش (knowledge) چه ارتباطی دارد. دانش اطلاعاتی‌ست که بهره‌ای از قطعیت دارد. حالا فرض کنید ما سه ظرف مختلف داریم. در ظرف اول ما سه‌ توپ سبز داریم. در ظرف دوم دو توپ سبز و یک توپ زرد داریم. در طرف سوم، یک توپ سبز و یک توپ زرد و یک توپ قرمز داریم. اگر بخواهیم آنتروپی این سه ظرف را لحاظ کنیم، ظرف اول، دوم و سوم، به ترتیب کمترین آنتروپی به بیشترین آنتروپی را دارند. چرا که ظرف اول هر سه توپش سبز است و بی‌نظمی یا آنتروپی آن کم است. اما ظرف سوم، سه توپ با سه رنگ متفاوت دارد پس بی‌نظمی یا آنتروپی آن زیاد است. حالا ما می‌خواهیم چشمانمان را ببندیم و دستمان را وارد هر ظرف کنیم.

در هر حالت، انتظار داریم توپ با کدام رنگ از ظرف خارج شود؟

در مورد ظرف اول ما مطمئنیم که هر توپی خارج کنیم، رنگ سبز خواهد داشت. پس ما‌ دانش قطعی و کاملی نسبت به این ظرف داریم.

در ظرف دوم، ما با احتمال ۶۶/۶۷ درصد، توپ سبز و با احتمال ۳۳/۳۳ درصد توپ زرد را از ظرف خارج خواهیم کرد.

در مورد ظرف سوم، ما با احتمال ۳۳/۳۳ درصد توپ سبز، با احتمال ۳۳/۳۳ درصد توپ زرد و با احتمال ۳۳/۳۳ درصد توپ قرمز از ظرف خارج می‌کنیم.

پس انگار ظرف اول، بیشترین میزان دانش را به ما می‌دهد، چرا که ما می‌دانیم که حتما توپ سبز خواهیم داشت. ظرف دوم هم تا حدی به ما دانش می‌دهد، اما ظرف سوم کمترین دانش را به ما خواهد داد. پس انگار آنتروپی معنایی مخالف دانش دارد. یا به زبان دیگر، آنتروپی میزان عدم قطعیت یا فقدان دانش را نشان می‌دهد.

ما در مورد آن سیستم فیزیکی مثال مولکول‌های آب نیز با همین فقدان اطلاعات روبرو بودیم. وقتی ما مکان مولکول‌های آب و جهت حرکتشان را نمی‌دانیم، آنتروپی ظرف آب مایع بالاست. اما وقتی از این بابت که مولکول‌های آب به شکل کریستال‌های یخ در آمده‌اند و مکان و جهت حرکت آن‌ها مشخص است، ما اطلاعات زیادی راجع به این سیستم داریم. اما وقتی ما از اطلاعات صحبت می‌کنیم، منظور متفاوتی از سایر سیستم‌های فیزیکی داریم و به همین علت نیاز به تعریف جدیدی از آنتروپی داریم که ریاضیدان آمریکایی کلاود شانون آن را به عنوان آنتروپی شانون (shannon entropy) معرفی کرد که یکی از مفاهیم بسیار مهم در نظریه‌ی اطلاعات است.

– ابا اباد

 

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *