.
.
این یک ترفند قدیمی فروشندگان است، اما هنوز هم کار میکند: شما یک خدمات را با قیمتی بسیار پایین یا حتی رایگان ارایه میکنید و هنگامی که مشتری به مزایای محصول عادت کرد، فروشنده با قیمت واقعی وارد میدان میشود. برای مثال، میتوانید برای مدت یک سال تقریباً به صورت رایگان تماس تلفنی برقرار کنید و هزینه را فقط از سال دوم پرداخت کنید، اما به میزانی که برای دو سال کافی باشد. و از آنجا که تغییر ارایهدهنده برای مشتری کاری پرزحمت است، فروشنده شانس خوبی دارد که مشتری نزد او بماند.
البته بهترین حالت زمانی است که مشتری حتی متوجه نشود که اکنون باید برای یک خدماتی که قبلاً رایگان بوده، هزینهای بپردازد. مثال: اینترنت. همه چیز رایگان است - سیستمعاملها، مرورگرها، شبکههای اجتماعی غیراخلاقی، پورتالهای اطلاعاتی متعلق به شرکتهای رسانهای – همهی اینها فقط «برای رضای خدا» است؟ البته که نه! در واقع، ما مشتریان اینترنت در پیشخوانهای گوگل، آمازون و اینستاگرام، حریم خصوصی خود را واگذار میکنیم. گوگل احتمالاً علایق و الگوهای خرید ما را بهتر از خودمان میشناسد و دنیای رنگارنگ خرید را دقیقاً متناسب با ما طراحی میکند. سایرین ما را روزانه با نظرات مورد علاقهمان تغذیه میکنند، یا آنقدر یک نظر خاص را به ما عرضه میکنند تا بالاخره مورد علاقهمان شود.
همه ما این را میدانیم و به این امید که نجات پیدا کنیم، به تختهپارههایی به نام „مقررات عمومی حفاظت از دادهها“ یا «قانون حفظ حریم خصوصی» چنگ میاندازیم. و البته، همیشه در وبسایتها تا جایی که میتوانیم کوکیها را رد میکنیم، مگر اینکه گزینهای نداشته باشیم، یا زمانی که عجله داریم.
تا کنون، غولهای فنآوری تلاشهایی برای حفظ اینترنت از محتوای نامناسب انجام دادهاند. محتوای متنی، تصویری و ویدیویی نامناسب میتوانند دنیای خرید دیجیتال را مختل کنند. علاوه بر این، همیشه افراد حساسی وجود دارند که به سرعت سیاستمداران را تحت فشار قرار میدهند تا محدودیتها و ممنوعیتهایی برای پلتفرمها اعمال کنند. برای پیشگیری از این موضوع، گوگل و سایر شرکتها ارتشی از کنترلکنندگان، عمدتاً از فیلیپین، را به کار گرفتهاند تا با دستمزدی ناچیز، محتوای نامناسب را از اینترنت حذف کنند.
همچنین، برای اینکه اینترنت همچنان برای ما مشتریان مفید بماند، «خزندههای وب1» - به ویژه آنهایی که متعلق به گوگل هستند - بدون وقفه در سرتاسر اینترنت در حال جستجو هستند تا صفحات مرتبط را پیدا کرده و با نمایش در رتبههای برتر نتایج جستجو، به آنها پاداش دهند.
اما اکنون اوضاع در حال تغییر است.ChatGPT و سایر مدلهای «هوش مصنوعی زایا2» به قدری محتوای بیارزش تولید میکنند که هم کنترلکنندگان فیلیپینی و هم خزندههای دیجیتال دیگر نمیتوانند آن را مدیریت کنند. ویدیوهای پوچ و بیمحتوا، اینفلوئنسرهای دیجیتال با تصاویر بیارزش، و البته محتوای پورنوگرافی، به ویژه با چهرههایی از زیبارویان مشهور، همه اینها در مدت کوتاهی و بهطور رایگان تولید میشوند.
علاوه بر این، در رسانههای اجتماعی، حجم زیادی از محتوای فاشیستی، نژادپرستانه، نئونازی، نفاقافکنانه و اضطرابآور نیز توسط هوش مصنوعی تولید میشود. استیو بنن، مشاور ترامپ، این استراتژی را „غرق کردن زمین بازی در مدفوع“ توصیف کرد. و برای گسترش نفوذ این محتوا، حسابهای جعلی3 زیادی وجود دارند که با لایکهای مصنوعی، دسترسی آنها را افزایش میدهند.
و این مدل حتی درآمدزایی هم دارد. در سال گذشته، در پلتفرم موسیقی «اسپاتیفای4»، دهها هزار آهنگ تولیدشده توسط هوش مصنوعی آپلود شد و سپس توسط باتها بهطور انبوه پخش شدند. اسپاتیفای به هنرمندان تنها بر اساس تعداد پخشها پرداخت میکند، بنابراین، باتها آهنگهای ساختهشده توسط صاحب بات را گوش داده و او را به درآمد میرسانند. سناریوی عجیبی است!
هوش مصنوعی نه تنها با سرعت بالا محتوا تولید میکند، بلکه وبسایتهای کاملی را با سرعت سرسامآور میسازد. ما تازه در آغاز این تحولِ نمایی و تصاعدی هستیم. پیشبینیها حاکی از آن است که تا سال ۲۰۳۰، قریب به ۹۰ درصد تمام محتوای آنلاین توسط هوش مصنوعی تولید خواهد شد. رویای اینترنت بهعنوان بستری برای ارتباط جهانی بین انسانها، در سیلی از محتوای پوچ و بیارزش در حال غرق شدن است.
به همین دلیل، برخی از محتواها دیگر در اینترنت منتشر نمیشوند یا حداقل از دسترس هوش مصنوعی خارج میمانند. اغلب، هوش مصنوعی محتوای اصلی را نادرست، ناقص یا تحریفشده ارایه میدهد. همچنین، این مدلها «حقوق مالکیت معنوی و فکری» را زیر پا میگذارند. به همین دلیل، روزنامه «نیویورک تایمز» آرشیوهای خود را از دسترس خزندههای وب ChatGPT خارج کرده است. برخی دیگر سعی دارند با توسعهدهندگان هوش مصنوعی توافقات و قراردادهای مالی امضا کنند.
.
.
اما مساله فقط به متن، تصویر و ویدیو محدود نمیشود - بلکه انسانهای جعلی نیز در حال افزایش هستند.
افراد ساختگی! آنها میتوانند برخی از کارهای ما را انجام دهند: برای ما چت کنند، ما را در جلسات زوم کسلکننده نمایندگی کنند (با ظاهری آراسته و چهرهای هوشیار)، مشتریان را راهنمایی کنند، و جدیدترین و پرسروصداترین تحول: نمایش صحنههای جنسی مورد علاقهی افراد!
در حال حاضر، بردگان جنسی که چهره و بدن آنان توسط هوش مصنوعی بهینهسازی شده، موفقیت چشمگیری در فضای آنلاین دارند. داستان این فیلمها واقعی است، اما ظاهر بازیگران توسط هوش مصنوعی تغییر داده شده است. اما در نهایت، بهزودی هر کسی خواهد توانست صحنههای مورد علاقه خود را با بدن و داستانی دلخواه، کاملاً توسط هوش مصنوعی تولید کند. آیا این پایان پلتفرمهای پورنو و شغلهای مرتبط با آن است؟
یک نفر همیشه از قبل میدانست! بحران بانکی، پاندمی، سونامی - همیشه کسی بود که هشدار داده بود. این بار، «مکس رید5» در سال ۲۰۱۸ پیشبینی کرده بود: „انسانهای جعلی با حسابهای جعلی در رسانههای اجتماعی، که با نشانگرهای جعلی، روی صفحات جعلی، کلیکهای جعلی میزنند!“
هوش مصنوعی شاید اینترنت را نابود کند، اما در دستان دانشمندان حقیقی و متعهد به اصول انسانی و اخلاقی، „تحول بزرگ بعدی“ خواهد بود. هنوز چیزهای زیادی در راه است...
.
.
مطالب مرتبط:
.
.
پانویسها:
1- Webcrawler، رباتی اینترنتی است که بهطور خودکار اطلاعات وبسایتها را مرور کرده و صفحات سایت را بر اساس معیارهای مختلف برای فهرستبندی در موتورهای جستوجو بررسی میکند.
2- Generative AI، یا هوش مصنوعی مولد، به مدلهای یادگیری عمیقی گفته میشود که میتوانند متون، تصاویر و سایر محتوای با کیفیت را بر اساس دادههای آموزشی تولید کنند. به بیان ساده، مدل مولد میتواند آنچه را که از نمونههای دریافتی فرا گرفته است، به کار گیرد و بر اساس آن اطلاعات، محتوایی کاملاً جدید را خلق کند. به همین دلیل است که نام «مولد» یا «زایا» به معنی «تولیدکننده» برای آن انتخاب شده است.
3- Fake Accounts
4- Spotify
5- Max Read، روزنامهنگار، نویسنده و تحلیلگر آمریکایی است. او در مقاله خود در مجله نیویورک (New York Magazine) در سال 2018 با عنوان «چه میزان از اینترنت جعلی است؟»، استدلال کرده بود که اینترنت به «نقطه وارونگی» رسیده است؛ جایی که محتوای جعلی به اندازهای فراوان شده که تشخیص واقعیت از جعل تقریباً ناممکن است و اعتماد به آنچه در فضای آنلاین با آن مواجه میشویم را به چالشی بزرگ تبدیل کرده است.
.
.
www.tesalkootah.ir || 2025-03-25 © 2015 © All rights reserved www.etesalkootah.ir تمامی حقوق برای www.etesalkootah.ir محفوظ است. بیان شفاهی بخش یا تمامی یک مطلب از www.etesalkootah.ir در رادیو، تلویزیون و رسانههای مشابه آن با ذکر واضح "اتصال کوتاه دات آی آر" بعنوان منبع مجاز است. هر گونه استفاده کتبی از بخش یا تمامی هر یک از مطالب www.etesalkootah.ir در سایت های اینترنتی در صورت قرار دادن لینک مستقیم و قابل "کلیک" به آن مطلب در www.etesalkootah.ir مجاز بوده و در رسانههای چاپی نیز در صورت چاپ واضح "www.etesalkootah.ir" بعنوان منبع مجاز است. |