اَبا اِباد

پنجره ها را باز کن

پنجره ها را باز کن

آمارها نشان می‌دهند که به طور میانگین حدود یک دهم درصد مقالات بعد از چاپ، ابطال و سلب اعتبار (retract) می‌شوند. اما چطور می‌توان از یک مقاله سلب اعتبار کرد؟ فرض کنید یک محققی تقلب کرده و دست به داده سازی زده و اتفاقا نتیجه‌ی تحقیقاتش را در یک مجله‌ی معتبر هم به چاپ رسانده است. اما از بدشانسی آن محقق متقلب، وقتی شما در حال تحقیق در آن حوزه بوده اید، به این مقاله برمی‌خورید. چون قبلا با این حوزه سر و کار داشته‌اید، به اعتبار نتایج این مقاله شک می‌کنید. حالا چطوری باید شک خودتان را برطرف کنید؟ یا باید با یک استدلالی اثبات کنید که چنین نتیجه‌ای غیرممکن است، یا اینکه شما هم دوباره دست به آزمایش بزنید و ببینید آیا همان نتایج را به دست می‌آورید یا نه؟

احتمال اینکه بتوانید در داده‌های آن پژوهش، یک اشتباه و سوتی و ناهماهنگی ببینید، خیلی زیاد نیست. بالاخره آن کسی که دست به تقلب زده هم فکر و دانشی دارد و از آن استفاده می‌کند تا دستش رو نشود. اینجا معیار و سنجه‌ی شما برای بررسی واقعیت چیست؟ جهان خارج. شما انتظار دارید با تکرار همان آزمایش و تحت همان شرایط، به همان نتایج دست پیدا کنید. شما آزمایش را تکرار می‌کنید‌ و متوجه می‌شوید که نتایجی که در آن مقاله اعلام شده، به دست نمی‌آید و به آن ژورنالی که این مقاله را چاپ کرده، اعلام می‌کنید که نتایج ادعا شده در این مقاله، مشکوک است. علت موفقیت شما در کشف این تقلب، این بود که توانستید در جهان خارج از ذهنتان و جهان خارج از آن مقالات، آزمایش را تکرار کنید و خودتان نتایج را ببینید.

اما فرض کنید یک نفر از یک الگوریتم هوش مصنوعی بپرسد که آیا این مقاله معتبر است یا نه؟ آن الگوریتم اگر ضعیف باشد، صِرف اینکه این مقاله در ژورنال معتبری به چاپ رسیده، به شما اعلام می‌کند که بله این مقاله معتبر است. اگر آن الگوریتم هوش مصنوعی پیشرفته تر باشد و بتواند داده‌های عددی را هم تحلیل کند، نتایج این مقاله را با مقالات مشابه در آن حوزه مقایسه می‌کند و وقتی می‌بینید که با نتایج مقالات دیگر همخوانی دارد، می‌گوید که بله نتایج این مقاله معتبر است. این دقیقا یک نکته‌ی بسیار مهم در مباحث مربوط به هوش مصنوعی‌ست که کمتر به آن توجه می‌شود.

در واقع ما بیشتر روی قدرت پردازش این الگوریتم‌ها بحث می‌کنیم تا ورودی آن‌ها. اینکه ورودی این الگوریتم‌ها محدود به همان ورودی‌هایی‌ست که ما انسان‌ها به خورد این الگوریتم‌ها می‌دهیم، خودش یک مانع بزرگ بر سر راه پیشرفت این الگوریتم‌هاست. در حالیکه ما انسان‌ها، مستقیما به جهان خارج دسترسی داریم و بخش بزرگی از ورودی‌های ما از همین جهان خارج است. یک کودک خردسال که راه رفتن و حرف زدن می‌آموزد، او اینها را در ارتباط با جهان اطرافش می‌آموزد و آنوقت خودش مستقیما به سراغ شناخت جهان خارج می‌رود. ما برای اینکه بتوانیم از این الگوریتم‌ها حداکثر بهره را ببریم، باید به آن‌ها این امکان را بدهیم که در مسیر یادگیری‌شان مستقیما به جهان خارج دسترسی داشته باشند و نه صرفا به ورودی‌های ما.

از طرف دیگر، باید‌ حواسمان باشد که خودمان هم شبیه این الگوریتم‌ها نشویم که ورودی ذهن ما فقط از کامپیوتر و تلویزیون و شبکه‌های اجتماعی باشد. ما باید به مشاهده‌ی جهان خارج بپردازیم. وگرنه ذهن ما محدود به داده‌هایی می‌شود که‌ دیگران برای ما فراهم کرده‌اند و به این شکل، هیچوقت متوجه خطاهای موجود در این داده‌ها نخواهیم شد. باید از این پنجره‌هایی که مقابلمان گذاشته شده، به بیرون بپریم و خودمان جهان را کشف کنیم.

– ابا اباد

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *