چقدر هوش مصنوعی در دانستن آنچه می خواهیم کمی بیش از حد خوب است و چرا ما را مجذوب صفحه های نمایش خود کرده است

[ad_1]

ما به همان اندازه که در خانه های خود می گذرانیم وقت خود را صرف تلفن های هوشمند می کنیم. تلفن هوشمند به “مکانی که در آن زندگی می کنیم” تبدیل شده است ، یک UCL مطالعه اخیراً پیدا شده است. بیشتر این زمان صرف پیمایش و طراوت بخشیدن به توییتر ، فیس بوک ، اینستاگرام ، اسنپ چت ، پینترست یا یوتیوب یا ترکیبی از آن است.

الگوریتم های استفاده شده توسط این برنامه ها از داده های خرد در مورد همه چیز استفاده می کنند – از کانال هایی که دنبال می کنید و کدام پست ها را دوست دارید ، تا اینکه چقدر قبل از پیمایش بیشتر به یک تبلیغ می پردازید ، آنچه را که در Google جستجو کرده اید و بیشترین پست ها فعالیت – برای ورود به مجموعه ای از دستورالعمل ها که دقیقاً آنچه را که می خواهید نگاه کنید پیش بینی می کند و آنچه را که در پیش رو دارید نمایش می دهد. هرچه ما از این برنامه ها بیشتر استفاده کنیم ، هرچه اطلاعات ماشین بیشتر باشد ، ماشین می تواند بیشتر یاد بگیرد – به لطف الگوریتم های یادگیری ماشین و یادگیری عمیق – و توصیه های آن بهتر می شود. اگر تا به حال با یک توییت عالی یا ویدیوی YouTube روبرو شده اید که همان چیزی بود که بدنبال آن می گشتید ، فکر می کنید این ظرفیت هوش مصنوعی برای تقریباً خواندن ذهن ما خارق العاده و حتی جادویی است.

این چیز خوبی به نظر می رسد ، مگر در مواردی که تشخیص دهیم این فناوری ها آنقدر قدرتمند و شخصی هستند که توانایی مهندسی معکوس روان ما را دارند.

به طور فزاینده ای ، به دلیل اینکه درآمد در اقتصاد توجه جدید به طور پیچیده ای به زمان دستگاه وابسته است ، برنامه ای که این الگوریتم ها با آن نوشته می شوند ، “آنچه را که مصرف کننده می خواهد به مصرف کننده نده” نیست. این است “تا آنجا که ممکن است آنها را بر روی صفحه نگه دارید.” و مشکل این است که هوش مصنوعی در نگه داشتن ما روی صفحه خوب است. تکان دادن های کوچک مانند “ویدیوهای پیشنهادی آینده” یا “ممکن است دوست داشته باشید با آنها دوست باشید” یا “پیشنهادات جستجو” از جمله روش هایی است که ما را در صفحه نمایش نگه می دارد و برای این غول های فناوری درآمد کسب می کند. بی نهایت بسیار محتوا شخصی سازی شده از طریق کشیدن انگشت مانند دستگاه اسلات است که نمی توانیم از آن خارج شویم. از آنجایی که هوش مصنوعی بسیار خوب است که می داند چه پستی ما را به صفحه متصل می کند – از طریق قابلیت یادگیری ماشین – ما باید مدت زمان طولانی تری از آنچه که می خواهیم به دستگاه هایمان خیره شویم یا این نمایش را انجام دهیم. و بدترین قسمت این است که احساس می کنیم در حالی که کنترل نمی کنیم کنترل می کنیم.

در یک طرف صفحه ، ما – کاربر نهایی – قرار داریم که به طور غیرمعمول پیمایش می کنیم و محتوایی را تحریک کننده ، راضی کننده و مطابق با دیدگاه ها و علایق خود می بینیم. در سمت دیگر صفحه ، یک الگوریتم هوش مصنوعی وجود دارد ، با هزاران تن ترابایت از داده های مربوط به ما ، دقیقاً همان چیزی را به ما می دهد که مانع بسته شدن برنامه و ادامه زندگی می شود. طرف دیگر صفحه نمایش به اندازه کافی قدرتمند ، هوشمند ، بسیار آگاه است تا بتوانیم فقط از طریق اراده با آن مبارزه کنیم. عدم تقارن نیرو بین دستگاه و ما وجود دارد ، که باعث می شود در صورت تمایل به صفحه نمایش خود بمانیم.

بسیاری از اشکالات اجتماعی این فناوری های اعتیاد آور وجود دارد. بهترین الگوریتم ها می توانند نقاط ضعف ذات انسان را تحت تأثیر قرار دهند تا کاربر را درگیر برنامه کند. ناتوانی ما در مبارزه با این امر مانع از بهره وری روزمره و همچنین طولانی مدت ما می شود. وقتی زمان بیشتری را صرف تماشای عکسهای اینستاگرام یا پیمایش در توییتر می کنیم ، می توانیم زمان کمتری را به کارهای عمیق اختصاص دهیم. همچنین عواقب ناخواسته ای بر سلامت روان نوجوانان ، ترویج فرهنگ سمی افراد مشهور ، از دست دادن توجه و نیاز مستمر به اعتبار اجتماعی در میان کاربران وجود دارد. محتوای بحث برانگیز و نفرت انگیز محبوبیت بیشتری پیدا می کند. پیامدهای اسف بار مهندسی انتخابات ، قطب بندی و اطلاعات غلط در دموکراسی ها و خودکامگی ها با استفاده از الگوریتم های هوش مصنوعی در برنامه های رسانه های اجتماعی به روش های ناخواسته احساس می شود.

این لزوماً به این معنی نیست که ما باید دیگر از رسانه های اجتماعی استفاده نکنیم ، یا هوش مصنوعی بد است. همین الگوریتم ها باعث شکوفایی مشاغل کوچک شده اند ، و سازندگان کوچک به اوج رسیده اند. این کار با ایجاد صداهای فردی و جمعی مانند جنبش MeToo به توانمندسازی تغییر کمک کرده است. این به میلیون ها انسان همفکر کمک کرده است تا در برابر موانع جغرافیایی و تحرک ، ارتباط برقرار کنند. حتی تبلیغ کنندگان در برابر الگوریتم های دستکاری شبکه های اجتماعی از توییتر و فیس بوک برای جلب مخاطبان خود استفاده می کنند. بنابراین ، شبکه های اجتماعی اینجا هستند تا بمانند.

چیزی که این به ما نشان می دهد ، هوش مصنوعی است که به روش های اشتباه استفاده می شود – خواه توسط سازنده این فناوری خواسته یا ناخواسته باشد – می تواند بسیار خطرناک باشد زیرا ما را در برابر هوش گسترده ای که نمی توان با آن رقابت کنیم آسیب پذیر می کند. در سمت روشن – این نتیجه اجتناب ناپذیری نیست و هوش مصنوعی محکوم به فنا نیست.

دو نوع راه حل اصلی برای مشکلات ناشی از سیستم عامل های اعتیاد آور شبکه های اجتماعی وجود دارد. از یک طرف ، ما می توانیم طراحی مبتنی بر حرکت و استفاده از این الگوریتم ها را تشخیص دهیم و با ایجاد دفاع های بهتر برای خود – نوعی رویکرد “از پایین به بالا” مبارزه کنیم. روش های مختلفی برای این کار وجود دارد – تنظیم برنامه های افزودنی در مرورگر ما که توصیه ها را مسدود می کند ، دنبال کردن افرادی که با آنها مخالف هستیم ، تعیین محدودیت های زمانی استفاده خود از این برنامه ها ، خاموش کردن اعلان ها و غیره

اما این تنها می تواند از ما در برابر این الگوریتم ها دفاع کند. هدف از فناوری و هوش مصنوعی همیشه این بوده است که ما بتوانیم کارهای بیشتری انجام دهیم ، نه اینکه بهره وری خود را محدود کنیم. بنابراین ، غول های فناوری باید پیامدهای منفی الگوریتم های شبکه های اجتماعی بر بهره وری و سلامت روان کاربر را تشخیص دهند و برای بازسازی تجارت خود به روشی که در خدمت مصرف کننده باشد ، تلاش کنند. شروع این تغییر از داخل دشوار است ، بنابراین روشهای جایگزین باید توسط جامعه در نظر گرفته شوند.



لینک شده


سلب مسئولیت

نظرات بیان شده در بالا از نظر نویسنده است.



پایان مقاله



Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>