گسترش هوش مصنوعی معادلات قدیمی را دستخوش تغییر کرده و آنچه پیش از این بهعنوان سند، نشانه یا روایت معتبر پذیرفته میشد، اکنون در معرض تردید قرار دارد و مرزهای اطمینان که سالها بر پایه تجربه و شواهد شکل گرفته بود، با ظهور فناوریهای نوین بازتعریف شده و بداهت باور کردن جای خود را به احتیاط داده است.
به گزارش خبرگزاری ایمنا، تحولات فناورانه همواره شیوه زیست انسان را دگرگون کرده است، اما هوش مصنوعی سطح تازهای از این دگرگونی را رقم زده است. آنچه امروز در حال وقوع است، تنها افزایش سرعت یا دقت ابزارها نیست، بلکه تغییر در نسبت با واقعیت است. بازنماییهای دیجیتال دیگر فقط ثبتکننده جهان بیرونی نیستند، آنها میتوانند جهانی تازه خلق کنند که از نظر ظاهری تفاوتی با واقعیت ندارد.
گسترش ابزارهای تولید تصویر، صدا و متن مبتنی بر الگوریتم، امکان بازسازی دقیق چهرهها، صداها و سبکهای نوشتاری را فراهم کرده است و فناوریهایی مانند Midjourney در حوزه تصویر و مدلهای زبانی نظیر ChatGPT در حوزه متن، نشان میدهند که تولید محتوای باورپذیر دیگر نیازمند زیرساختهای پیچیده یا مهارتهای نادر نیست و این فراگیری، مرز میان خلاقیت و جعل را به شدت باریک کرده است.
در چنین شرایطی، مفهوم اصالت با پرسشی بنیادین مواجه میشود و اگر یک تصویر بتواند بدون حضور دوربین و یک صدا بدون حضور گوینده تولید شود، معیار تشخیص امر واقعی چیست؟ ابزارهایی که زمانی برای ثبت و مستندسازی به کار میرفتند، اکنون توانایی بازآفرینی همان اسناد را دارند و این دگرگونی، بنیان سنتی اعتماد به شواهد دیداری و شنیداری را متزلزل کرده است.
پیامد این وضعیت تنها در سطح فناوری باقی نمیماند، بلکه به لایههای عمیقتری از حیات اجتماعی نفوذ میکند. اعتماد، به عنوان سرمایهای نامرئی، اما حیاتی، شرط شکلگیری ارتباطات پایدار است و هنگامی که افراد نسبت به صحت آنچه میبینند و میشنوند مردد میشوند، این تردید میتواند به روابط روزمره نیز سرایت کند و فضای تعامل را محتاطانهتر سازد.
شکلگیری پدیده انکارپذیری دیجیتال / وقتی مرز میان واقعیت و دستکاری باریک میشود
ریحانه صادقی، روانشناس و مشاور خانواده و عضو سازمان نظام روانشناسی کشور با بیان اینکه بحران اعتماد فقط به این محدود نمیشود که چه چیزی واقعی است، بلکه به این پرسش هم گره خورده که به چه کسی میتوان اعتماد کرد، به خبرنگار ایمنا میگوید: وقتی تولید محتوا با چند دستور ساده در ابزارهایی مثل ChatGPT یا موتورهای تصویری انجام میشود، مرجعیت سنتی رسانهها نیز زیر سؤال میرود. دیگر انحصار تولید خبر و تصویر در اختیار نهادهای حرفهای نیست و همین مسئله، ساختار قدیمی اعتبارسنجی را متزلزل کرده است.
وی با بیان اینکه از سوی دیگر، پدیدهای به نام انکارپذیری دیجیتال شکل گرفته است و حتی اگر یک تصویر یا ویدئو واقعی باشد، فرد متهم میتواند آن را جعلی بنامد، میافزاید: پیشرفت فناوریهایی که توسط شرکتهای این حوزه توسعه یافته، باعث شده مرز میان واقعیت و دستکاری چنان باریک شود که تشخیص آن برای عموم مردم دشوار باشد و نتیجه، افزایش فضای ابهام و کاهش مسئولیتپذیری است.
روانشناس و مشاور خانواده و عضو سازمان نظام روانشناسی کشور با بیان اینکه رسانهها نیز با چالشی دوگانه مواجه هستند، تصریح میکند: در عصر شبکههای اجتماعی، خبری که چند دقیقه زودتر منتشر شود میتواند میلیونها بازدید بگیرد، حتی اگر بعد از آن مشخص شود نادرست بوده است و این فشار زمانی، احتمال خطا را افزایش میدهد و هر اشتباه کوچک میتواند آسیبی بزرگ ایجاد کند.
مواجهه مداوم با اخبار متناقض و تصاویر مشکوک، نوعی خستگی شناختی ایجاد میکند / مرز میان محتوای جعلی و واقعیت میتواند به فرصتی برای ارتقای سواد رسانهای تبدیل شود
صادقی با بیان اینکه نسل جوان که بیشترین حضور را در فضای آنلاین دارد، در معرض حجم عظیمی از محتوا است که همه آن قابل راستیآزمایی نیست، ادامه میدهد: مواجهه مداوم با اخبار متناقض و تصاویر مشکوک، نوعی خستگی شناختی ایجاد میکند که در آن فرد ترجیح میدهد به هیچ چیز اطمینان نکند.
وی با بیان اینکه برخی کارشناسان معتقدند همین بحران میتواند به فرصتی برای ارتقای سواد رسانهای تبدیل شود، میگوید: آموزش مهارتهای تشخیص منبع، بررسی متادیتا و استفاده از ابزارهای راستیآزمایی میتواند کاربران را فعالتر و آگاهتر کند و اگرچه فناوری جعل پیشرفتهتر شده، اما ابزارهای تشخیص نیز همزمان در حال توسعه است و رقابتی دائمی میان این دو جریان شکل گرفته است.
روانشناس و مشاور خانواده و عضو سازمان نظام روانشناسی کشور با بیان اینکه اعتماد سرمایهای است که بهسادگی ساخته نمیشود و به راحتی از دست میرود، اضافه میکند: اگر نتوانیم سازوکاری مشترک برای تشخیص حقیقت ایجاد کنیم، شکافهای اجتماعی عمیقتر خواهند شد و آینده عصر دیجیتال نه فقط به پیشرفت فناوری، بلکه به توان افراد در بازتعریف مفهوم اعتماد وابسته است.
گسترش دیپفیکها چگونه زندگی را تحت تاثیر قرار میدهد؟ / جعل حرفهای دیگر نیازمند مهارت پیچیده فنی نیست
فاطمه خدادادی، روانشناس بالینی با بیان اینکه بحران اعتماد در عصر هوش مصنوعی، آرام و بیصدا وارد زندگی روزمره شده است، به خبر ایمنا میگوید: زمانی تصویر و ویدئو به عنوان سندی قابل اتکا شناخته میشدند، اما امروز با پیشرفت ابزارهای تولید محتوا، مرز میان واقعیت و جعل به شدت کمرنگ شده است و فناوریهایی که زمانی تنها در اختیار استودیوهای بزرگ بودند، اکنون روی لپتاپهای شخصی هم قابل استفاده است و همین دسترسی گسترده، مسئله اعتماد عمومی را به چالشی جدی تبدیل کرده است.
وی با بیان اینکه یکی از نمودهای روشن این وضعیت، گسترش دیپفیکها است، میافزاید: دیپفیکها، ویدئوها یا تصاویری است که با کمک الگوریتمهای هوش مصنوعی ساخته میشوند و میتوانند چهره یا صدای افراد را بهگونهای بازسازی کنند که واقعی به نظر برسد و ابزارهایی مانند Midjourney در حوزه تصویرسازی و مدلهایی مانند ChatGPT در تولید متن، نشان دادهاند که جعل حرفهای دیگر نیازمند مهارت پیچیده فنی نیست و این سهولت تولید، سرعت انتشار اطلاعات نادرست را نیز چند برابر کرده است.
روانشناس بالینی با بیان اینکه پیامد اجتماعی این روند، تردید فراگیر نسبت به هر محتوای دیجیتال است، تصریح میکند: کاربران شبکههای اجتماعی هنگام مشاهده یک ویدئو، بیش از گذشته دچار تردید میشوند که آیا آنچه میبینند واقعی است یا دستکاری شده است و این تردید، هرچند نشانهای از افزایش آگاهی رسانهای است، اما در عین حال میتواند به نوعی بدبینی مزمن منجر شود.
انتشار یک فایل صوتی یا ویدئوی جعلی در زمان کوتاه میتواند افکار عمومی را تحت تأثیر قرار دهد / ضرورت توسعه قوانین شفاف، ارتقای سواد رسانهای و طراحی ابزارهای تشخیص جعل
خدادادی با بیان اینکه انتشار یک فایل صوتی یا ویدئوی جعلی در زمان کوتاه میتواند افکار عمومی را تحت تأثیر قرار دهد و حتی بر تصمیمگیری افراد اثر بگذارد، ادامه میدهد: در چنین شرایطی، تکذیب گاهی اوقات دیرتر از موج اولیه انتشار عمل میکند و بازگرداندن اعتماد به سادگی ممکن نیست.
وی با بیان اینکه در روابط شخصی نیز امکان جعل پیامها، تصاویر یا صداها میتواند به تخریب اعتبار افراد منجر شود، میگوید: شهرت آنلاین که برای بسیاری سرمایه اجتماعی محسوب میشود، در معرض تهدید قرار گرفته است و هر فردی ممکن است قربانی محتوایی شود که هرگز تولید نکرده، اما به نام او منتشر شده است.
روانشناس بالینی با بیان اینکه پرسش اصلی این است که چگونه میتوان میان بهرهگیری از مزایای هوش مصنوعی و حفظ اعتماد اجتماعی تعادل برقرار کرد، اضافه میکند: توسعه قوانین شفاف، ارتقای سواد رسانهای و طراحی ابزارهای تشخیص جعل، بخشی از راهحل به شمار میروند، با این حال، بازسازی اعتماد فرایندی زمانبر است و نیازمند همکاریهای همزمان خواهد بود.
همزمان، هویت دیجیتال نیز در معرض بازتعریف قرار گرفته است و امکان تقلید سبک نگارش، بازسازی چهره یا شبیهسازی صدا، مرزهای مالکیت معنوی و شخصی را کمرنگ کرده است، هر فرد ممکن است با نسخهای مصنوعی از خود در فضای آنلاین مواجه شود که میتواند مستقل از اراده او منتشر و بازتولید شود و این امر پرسشهای تازهای درباره مسئولیت، اعتبار و کنترل هویت مطرح میکند.
افزون بر این، فراوانی محتوای تولیدشده با هوش مصنوعی، نوعی اشباع ادراکی ایجاد کرده است و کاربران با حجمی گسترده از تصاویر و متون روبهرو هستند که همه آنها از نظر فنی دقیق و جذاب است، اما همه ریشه در واقعیت ندارند. این وضعیت میتواند حساسیت افراد نسبت به حقیقت را کاهش دهد یا برعکس، آنان را دچار تردیدی دائمی کند.
در برابر این چالش، ضرورت بازتعریف سازوکارهای اعتماد بیش از پیش احساس میشود و توسعه ابزارهای تشخیص اصالت، نشانهگذاری محتوای تولیدشده با هوش مصنوعی و تقویت سواد دیجیتال، از جمله راهکارهایی هستند که میتوانند به بازسازی اطمینان عمومی کمک کنند و با این حال، هیچ راهحلی بدون مشارکت آگاهانه کاربران مؤثر نخواهد بود.
بحران اعتماد در عصر هوش مصنوعی نه تنها مسئلهای فناورانه، بلکه مسئلهای فرهنگی و اجتماعی است و آینده این زیستبوم دیجیتال به آن وابسته است که جامعه چگونه میان بهرهگیری از ظرفیتهای نوآورانه این فناوری و حفاظت از بنیانهای اعتماد تعادل برقرار کند و بازسازی این تعادل، شرط پایداری تعاملات انسانی در جهان معاصر خواهد بود.
منبع:
1- shahrsaz.ir ,مرزهای کمرنگ اعتماد؛ زندگی در عصر بازتولید واقعیت در دنیای هوش مصنوعی ,2026-02-23 14:19:00
2- https://www.imna.ir/news/950876/%D9%85%D8%B1%D8%B2%D9%87%D8%A7%DB%8C-%DA%A9%D9%85%D8%B1%D9%86%DA%AF-%D8%A7%D8%B9%D8%AA%D9%85%D8%A7%D8%AF-%D8%B2%D9%86%D8%AF%DA%AF%DB%8C-%D8%AF%D8%B1-%D8%B9%D8%B5%D8%B1-%D8%A8%D8%A7%D8%B2%D8%AA%D9%88%D9%84%DB%8C%D8%AF-%D9%88%D8%A7%D9%82%D8%B9%DB%8C%D8%AA-%D8%AF%D8%B1-%D8%AF%D9%86%DB%8C%D8%A7%DB%8C-%D9%87%D9%88%D8%B4