.

.

این یک ترفند قدیمی فروشندگان است، اما هنوز هم کار می‌کند: شما یک خدمات را با قیمتی بسیار پایین یا حتی رایگان ارایه می‌کنید و هنگامی که مشتری به مزایای محصول عادت کرد، فروشنده با قیمت واقعی وارد میدان می‌شود. برای مثال، می‌توانید برای مدت یک سال تقریباً به صورت رایگان تماس تلفنی برقرار کنید و هزینه را فقط از سال دوم پرداخت کنید، اما به میزانی که برای دو سال کافی باشد. و از آنجا که تغییر ارایه‌دهنده برای مشتری کاری پرزحمت است، فروشنده شانس خوبی دارد که مشتری نزد او بماند.

البته بهترین حالت زمانی است که مشتری حتی متوجه نشود که اکنون باید برای یک خدماتی که قبلاً رایگان بوده، هزینه‌ای بپردازد. مثال: اینترنت. همه چیز رایگان است - سیستم‌عامل‌ها، مرورگرها، شبکه‌های اجتماعی غیراخلاقی، پورتال‌های اطلاعاتی متعلق به شرکت‌های رسانه‌ای – همه‌ی این‌ها فقط «برای رضای خدا» است؟ البته که نه! در واقع، ما مشتریان اینترنت در پیشخوان‌های گوگل، آمازون و اینستاگرام، حریم خصوصی خود را واگذار می‌کنیم. گوگل احتمالاً علایق و الگوهای خرید ما را بهتر از خودمان می‌شناسد و دنیای رنگارنگ خرید را دقیقاً متناسب با ما طراحی می‌کند. سایرین ما را روزانه با نظرات مورد علاقه‌مان تغذیه می‌کنند، یا آن‌قدر یک نظر خاص را به ما عرضه می‌کنند تا بالاخره مورد علاقه‌مان شود.

همه ما این را می‌دانیم و به این امید که نجات پیدا کنیم، به تخته‌پاره‌هایی به نام „مقررات عمومی حفاظت از داده‌ها“  یا «قانون حفظ حریم خصوصی» چنگ می‌اندازیم. و البته، همیشه در وب‌سایت‌ها تا جایی که می‌توانیم کوکی‌ها را رد می‌کنیم، مگر اینکه گزینه‌ای نداشته باشیم، یا زمانی که عجله داریم.

تا کنون، غول‌های فن‌آوری تلاش‌هایی برای حفظ اینترنت از محتوای نامناسب انجام داده‌اند. محتوای متنی، تصویری و ویدیویی نامناسب می‌توانند دنیای خرید دیجیتال را مختل کنند. علاوه بر این، همیشه افراد حساسی وجود دارند که به سرعت سیاستمداران را تحت فشار قرار می‌دهند تا محدودیت‌ها و ممنوعیت‌هایی برای پلتفرم‌ها اعمال کنند. برای پیشگیری از این موضوع، گوگل و سایر شرکت‌ها ارتشی از کنترل‌کنندگان، عمدتاً از فیلیپین، را به کار گرفته‌اند تا با دستمزدی ناچیز، محتوای نامناسب را از اینترنت حذف کنند.

همچنین، برای اینکه اینترنت همچنان برای ما مشتریان مفید بماند، «خزنده‌های وب1» - به ویژه آن‌هایی که متعلق به گوگل هستند - بدون وقفه در سرتاسر اینترنت در حال جستجو هستند تا صفحات مرتبط را پیدا کرده و با نمایش در رتبه‌های برتر نتایج جستجو، به آن‌ها پاداش دهند.

اما اکنون اوضاع در حال تغییر است.ChatGPT  و سایر مدل‌های «هوش مصنوعی زایا2» به قدری محتوای بی‌ارزش تولید می‌کنند که هم کنترل‌کنندگان فیلیپینی و هم خزنده‌های دیجیتال دیگر نمی‌توانند آن را مدیریت کنند. ویدیوهای پوچ و بی‌محتوا، اینفلوئنسرهای دیجیتال با تصاویر بی‌ارزش، و البته محتوای پورنوگرافی، به ویژه با چهره‌هایی از زیبارویان مشهور، همه این‌ها در مدت کوتاهی و به‌طور رایگان تولید می‌شوند.

علاوه بر این، در رسانه‌های اجتماعی، حجم زیادی از محتوای فاشیستی، نژادپرستانه، نئونازی، نفاق‌افکنانه و اضطراب‌آور نیز توسط هوش مصنوعی تولید می‌شود. استیو بنن، مشاور ترامپ، این استراتژی را غرق کردن زمین بازی در مدفوع“ توصیف کرد. و برای گسترش نفوذ این محتوا، حساب‌های جعلی3 زیادی وجود دارند که با لایک‌های مصنوعی، دسترسی آن‌ها را افزایش می‌دهند.

و این مدل حتی درآمدزایی هم دارد. در سال گذشته، در پلتفرم موسیقی «اسپاتیفای4»، ده‌ها هزار آهنگ تولیدشده توسط هوش مصنوعی آپلود شد و سپس توسط بات‌ها به‌طور انبوه پخش شدند. اسپاتیفای به هنرمندان تنها بر اساس تعداد پخش‌ها پرداخت می‌کند، بنابراین، بات‌ها آهنگ‌های ساخته‌شده توسط صاحب بات را گوش داده و او را به درآمد می‌رسانند. سناریوی عجیبی است!

هوش مصنوعی نه تنها با سرعت بالا محتوا تولید می‌کند، بلکه وب‌سایت‌های کاملی را با سرعت سرسام‌آور می‌سازد. ما تازه در آغاز این تحولِ نمایی و تصاعدی هستیم. پیش‌بینی‌ها حاکی از آن است که تا سال ۲۰۳۰، قریب به ۹۰ درصد تمام محتوای آنلاین توسط هوش مصنوعی تولید خواهد شد. رویای اینترنت به‌عنوان بستری برای ارتباط جهانی بین انسان‌ها، در سیلی از محتوای پوچ و بی‌ارزش در حال غرق شدن است.

به همین دلیل، برخی از محتواها دیگر در اینترنت منتشر نمی‌شوند یا حداقل از دسترس هوش مصنوعی خارج می‌مانند. اغلب، هوش مصنوعی محتوای اصلی را نادرست، ناقص یا تحریف‌شده ارایه می‌دهد. همچنین، این مدل‌ها «حقوق مالکیت معنوی و فکری» را زیر پا می‌گذارند. به همین دلیل، روزنامه «نیویورک تایمز» آرشیوهای خود را از دسترس خزنده‌های وب ChatGPT  خارج کرده است. برخی دیگر سعی دارند با توسعه‌دهندگان هوش مصنوعی توافقات و قراردادهای مالی امضا کنند.

.

پیدایی هوش مصنوعی و مرگ اینترنت

.

اما مساله فقط به متن، تصویر و ویدیو محدود نمی‌شود - بلکه انسان‌های جعلی نیز در حال افزایش هستند.

افراد ساختگی! آن‌ها می‌توانند برخی از کارهای ما را انجام دهند: برای ما چت کنند، ما را در جلسات زوم کسل‌کننده نمایندگی کنند (با ظاهری آراسته و چهره‌ای هوشیار)، مشتریان را راهنمایی کنند، و جدیدترین و پرسروصداترین تحول: نمایش صحنه‌های جنسی مورد علاقه‌ی افراد!

در حال حاضر، بردگان جنسی که چهره و بدن آنان توسط هوش مصنوعی بهینه‌سازی شده، موفقیت چشمگیری در فضای آنلاین دارند. داستان این فیلم‌ها واقعی است، اما ظاهر بازیگران توسط هوش مصنوعی تغییر داده شده است. اما در نهایت، به‌زودی هر کسی خواهد توانست صحنه‌های مورد علاقه خود را با بدن و داستانی دلخواه، کاملاً توسط هوش مصنوعی تولید کند. آیا این پایان پلتفرم‌های پورنو و شغل‌های مرتبط با آن است؟

یک نفر همیشه از قبل می‌دانست! بحران بانکی، پاندمی، سونامی - همیشه کسی بود که هشدار داده بود. این بار، «مکس رید5» در سال ۲۰۱۸ پیش‌بینی کرده بود: انسان‌های جعلی با حساب‌های جعلی در رسانه‌های اجتماعی، که با نشانگرهای جعلی، روی صفحات جعلی، کلیک‌های جعلی می‌زنند!“

هوش مصنوعی شاید اینترنت را نابود کند، اما در دستان دانشمندان حقیقی و متعهد به اصول انسانی و اخلاقی، تحول بزرگ بعدی“ خواهد بود. هنوز چیزهای زیادی در راه است...

.

.

مطالب مرتبط:

.

.

پانویس‌ها:

1- Webcrawler، رباتی اینترنتی است که به‌طور خودکار اطلاعات وب‌سایت‌ها را مرور کرده و صفحات سایت را بر اساس معیارهای مختلف برای فهرست‌بندی در موتورهای جست‌وجو بررسی می‌کند.

2- Generative AI، یا هوش مصنوعی مولد، به مدل‌های یادگیری عمیقی گفته می‌شود که می‌توانند متون، تصاویر و سایر محتوای با کیفیت را بر اساس داده‌های آموزشی تولید کنند. به بیان ساده، مدل مولد می‌تواند آنچه را که از نمونه‌های دریافتی فرا گرفته است، به کار گیرد و بر اساس آن اطلاعات، محتوایی کاملاً جدید را خلق کند. به همین دلیل است که نام «مولد» یا «زایا» به معنی «تولیدکننده» برای آن انتخاب شده است.

3- Fake Accounts

4- Spotify

5- Max Read، روزنامه‌نگار، نویسنده و تحلیل‌گر آمریکایی است. او در مقاله خود در مجله نیویورک (New York Magazine) در سال 2018 با عنوان «چه میزان از اینترنت جعلی است؟»، استدلال کرده بود که اینترنت به «نقطه وارونگی» رسیده است؛ جایی که محتوای جعلی به اندازه‌ای فراوان شده که تشخیص واقعیت از جعل تقریباً ناممکن است و اعتماد به آنچه در فضای آنلاین با آن مواجه می‌شویم را به چالشی بزرگ تبدیل کرده است. 

.

.

www.tesalkootah.ir || 2025-03-25 © 

2015 © All rights reserved www.etesalkootah.ir

تمامی حقوق برای www.etesalkootah.ir محفوظ است. بیان شفاهی بخش یا تمامی یک مطلب از www.etesalkootah.ir در رادیو،  تلویزیون و رسانه‌های مشابه آن با ذکر واضح "اتصال کوتاه دات آی آر" بعنوان منبع مجاز است. هر گونه  استفاده  کتبی از بخش یا تمامی هر یک از مطالب www.etesalkootah.ir در سایت های اینترنتی در صورت قرار دادن لینک مستقیم و قابل "کلیک" به آن مطلب در www.etesalkootah.ir مجاز بوده و در رسانه‌های چاپی نیز در صورت چاپ واضح "www.etesalkootah.ir" بعنوان منبع مجاز است.