خبر : آینده هوش مصنوعی در ایران/ تقویت هویت ملی یا بحران فرهنگی؟
خبر : آینده هوش مصنوعی در ایران/ تقویت هویت ملی یا بحران فرهنگی؟ گروه دانشگاه خبرگزاری تسنیم-زینب امیدی: با گسترش روزافزون فناوریهای نوین همچون اینترنت اشیا و هوش مصنوعی، جامعه بشری در معرض تغییرات چشمگیری قرار گرفته است. میلیاردها دستگاه متصل به اینترنت، از لوازم خانگی هوشمند گرفته تا ابزارهای پوشیدنی، به صورت پیوسته در […]
خبر : آینده هوش مصنوعی در ایران/ تقویت هویت ملی یا بحران فرهنگی؟
گروه دانشگاه خبرگزاری تسنیم-زینب امیدی: با گسترش روزافزون فناوریهای نوین همچون اینترنت اشیا و هوش مصنوعی، جامعه بشری در معرض تغییرات چشمگیری قرار گرفته است. میلیاردها دستگاه متصل به اینترنت، از لوازم خانگی هوشمند گرفته تا ابزارهای پوشیدنی، به صورت پیوسته در حال جمعآوری و انتقال دادههای شخصی افراد هستند. این تغییرات علاوه بر تسهیل در زندگی روزمره، نگرانیهای جدی در خصوص حریم خصوصی و تأثیرات عمیقتر بر رفتارهای انسانی و حتی باورهای فرهنگی و دینی ایجاد کردهاند.
محمدهادی زاهدی مدیرکل فناوری اطلاعات و امنیت فضای مجازی وزارت علوم و رئیس انجمن هوش مصنوعی در بخش دوم گفتوگوی خود با خبرگزاری تسنیم، به بررسی این مسائل پرداخته و هشدار میدهد که با تحلیل و بهرهبرداری از دادههای انبوه، الگوهای رفتاری افراد و جوامع به شکلی نامحسوس تحت تأثیر قرار میگیرند. او این روند را نوعی «استعمار دیجیتال» میداند که نه تنها استقلال فکری را به مخاطره میاندازد، بلکه ارزشهای فرهنگی را نیز به چالش میکشد. در ادامه، به راهکارهای مقابله با این چالشها و اهمیت ارتقاء سواد عمومی و تنظیمگری فناوری خواهیم پرداخت.
تسنیم: شما اشاره کردید که میلیاردها شیء در بستر اینترنت به هم متصل هستند و در حال تبادل داده هستند. این موضوع چگونه بر زندگی روزمره و حفظ حریم خصوصی افراد تأثیر میگذارد؟
اینترنت اشیا: زندگی روزمره در معرض خطرات جدید
زاهدی: امروز شاهد گسترش فناوری “اینترنت اشیا” هستیم که در آن میلیاردها دستگاه، از ساعتهای هوشمند گرفته تا لوازم خانگی هوشمند همچون لباسشوییها، ظرفشویی ویخچالها و حتی خودروها، حلقههای هوشمند، قفلهای هوشمند، فبلتها و تبلتها، ساعتهای هوشمند به اینترنت متصلاند و دادههای متنوع و فراوانی تبادل میکنند. این دستگاهها قادرند دادههای بسیاری همچون موقعیت مکانی، وضعیت سلامت، رفتارهای روزمره و حتی تعاملات اجتماعی و فعالیتها در شبکههای اجتماعی افراد را ثبت و منتقل کنند.
این حجم از اطلاعات میتواند به طرز نگرانکنندهای در اختیار شرکتهای تولید کننده این ابزار و یا شرکتهای ارائه دهنده خدمات ارتباطی (اینترنت) قرار گیرد که از کنترل و نظارت بر آنها بی اطلاع باشیم. زمانی که یک ساعت هوشمند به دست می زنیم، این امکان وجود دارد که اطلاعاتی از جمله موقعیت مکانی، وضعیت جسمی، و حتی ساعات خواب و بیداری و دیدارها و ملاقاتهای روزانه را به شرکتهای سازنده یا اپلیکیشنهای مختلف ارسال نماید. اگر این اطلاعات بدون نظارت و تنظیمگری قانونی مناسب جمعآوری، استفاده و ارسال شود، حریم خصوصی افراد عملاً نقض میشود.
تسنیم: به نظر شما این خطرات چگونه میتوانند تأثیرات عمیقتری بر جامعه و رفتارهای انسانی داشته باشند؟
زاهدی: تأثیرات این فناوریها تنها به جمعآوری اطلاعات محدود نمیشود؛ بلکه مسأله اصلی این است که این اطلاعات میتوانند مورد تحلیل و استفاده قرار گیرند تا رفتارها و تصمیمات افراد را تحت تأثیر قرار دهند. شرکتها و سازمانها و دولتها میتوانند با تحلیل دادههای مربوط به رفتارهای روزمره افراد، به شکلی نامحسوس الگوهای رفتاری را تشخیص دهند و حتی در نهایت به جهت دهی این رفتارها بپردازند. این فرآیند میتواند به تدریج سبک زندگی و نگرشهای افراد و جامعه را به مرور تغییر دهد.
نگرانیهای حریم خصوصی در دنیای متصل/جامعه بشری در معرض استعمار دیجیتال
در این وضعیت، افراد به مرور به سمت رفتارها و تصمیماتی سوق داده میشوند که تحت کنترل و تأثیر بازیسازان این زیست بوم قرار گرفته و ناخودآگاه در مسیری قرار خواهند گرفت بدون آنکه خود متوجه آن شوند، رخ میدهد. به بیان دیگر، جامعه بشری در معرض نوعی استعمار دیجیتال قراردارد که از همگرایی ابزارهای هوشمند، دادهها، فناوری وب و اینترنت و هوش مصنوعی شکل گرفته است و به دنبال استفاده از فناوریهای نوظهور برای تسلط سیاسی، اقتصادی و اجتماعی بر ملتها است. این غولهای بزرگ فناوری هستند که روابط تجاری را در سراسر زنجیره کالا کنترل میکنند و از دانش و سرمایه انباشته، سود میبرند.
تسنیم: آیا این فناوریها میتوانند در بلندمدت بر قدرت تفکر و تحلیل انسانها تأثیر بگذارند؟
زاهدی: بله، یکی از بزرگترین نگرانیها این است که همگرایی فناوریهای مرتبط با هوش مصنوعی و اینترنت، به تدریج قدرت تفکر و تحلیل انتقادی را در انسانها کاهش دهند. ما در عصری زندگی میکنیم که هوش مصنوعی با تحلیل دادهها و ارائه راهکارهای سریع، بسیاری از فرآیندهای فکری را برای افراد انجام میدهد. این خطر وجود دارد که انسانها به موجوداتی صرفاً واکنشی تبدیل شوند که بدون تحلیل و تفکر عمیق به تصمیمات و پیشنهادات هوش مصنوعی اعتماد کنند. این امر میتواند نه تنها به کاهش استقلال فکری بشریت منجر شود، بلکه باورهای عمیق فرهنگی و دینی جوامع را نیز تحت تأثیر قرار دهد.
تسلط فناوریها بر تصمیمگیری انسانها
همانطور که هوش مصنوعی بیشتر بر زندگی انسان مسلط میشود، این امکان وجود دارد که به تدریج ارزشهای اخلاقی و باورهای دینی انسان نیز تحت تأثیر الگوها و پیشبینیهای ماشینی قرار گیرد. چگونه شرکتهای بزرگ فناوری مانند گوگل، فیسبوک و آمازون به نمونه هایی از امپریالیسم دیجیتال پرداختهاند، که تاثیرات آن به شکلهای جدیدی از نابرابری و عدم توازن قدرت منجر شده است. نحوهی انتقال ثروت از کشورهای جنوب جهانی به شمال جهانی و تضعیف زیرساختهای محلی و اقتصادهای بومی مورد جلوه هایی از استعمار دیجیتال بهطور مشهود است و نمی توان أثیرات فرهنگی منفی استعمار دیجیتال و تضعیف فرهنگهای محلی را نادیده گرفت.
تسنیم: به نظر شما، برای مقابله با این چالشها چه راهکارهایی باید در نظر گرفته شود؟
کاهش تفکر انتقادی در عصر هوش مصنوعی
زاهدی: یکی از راهکارهای کلیدی برای مقابله با این چالشها، ارتقاء سطح سواد عمومی در زمینه فناوری و به ویژه هوش مصنوعی است. افراد باید توانایی تفکر انتقادی و تحلیلی را در برابر فناوریهای جدید تقویت کنند و بیچون و چرا به دستورات یا پیشنهادات ارائه شده از سوی دستیارهای هوشمند و چت بات ها اعتماد نکنند. علاوه بر این، نیاز به تنظیمگری دقیق و کارآمد در حوزه فناوریهای مرتبط با هوش مصنوعی وجود دارد. دولتها باید با وضع قوانین مناسب، حفظ حریم خصوصی افراد را تضمین کنند و اجازه داده نشود که داده و اطلاعات شخصی به راحتی در اختیار شرکتها و این غولهای فناوری قرار گیرد. همچنین باید بر آموزش عمومی تأکید کرد تا ضمن اینکه افراد از این ابزارهای فناوریها استفاده میکنند، مطلع باشند چگونه میتوانند از آنها به صورت ایمن و آگاهانه بهره برداری کنند.
تسنیم: آیا این ابزارها و فناوریها میتوانند باورهای دینی و فرهنگی انسانها را هم تحت تأثیر قرار دهند؟
زاهدی: بله، به نظر من این خطر جدی وجود دارد. وقتی فناوریها توانایی تحلیل و هدایت رفتارها را دارند، به تدریج میتوانند بر تفکرات و باورها هم تأثیر بگذارند. اگر یک فرد دائماً در معرض اطلاعات جهت داری قرار گیرد که به باورهای فکری او خدشه وارد می کند و به صورت مستمر با دریافت محتوایی که تلفیقی از واقعیت و ناحقایق است مواجه شود، در مرور زمان و در خلأ روشنگری، دچار تردید در باورها خواهد شد.
نفوذ فناوریها بر باورهای فرهنگی و دینی/لزوم ورود حوزههای علمیه
از این رو، باید به طور جدی به فکر حفاظت از این ابعاد شناختی، روانشناسی و دهنی باشیم. اینجا دقیقاً جایی است که اساتید علوم انسانی، نظریهپردازان و حوزههای علمیه باید وارد عمل شوند و به تحلیل و ارائه راهکارهای مؤثر بپردازند. اگر این موضوعات به حال خود رها شوند، ممکن است با پیامدهای فرهنگی و اجتماعی گستردهای در آینده نه چندان دور مواجه شویم که قابل بازگشت و جبران نباشد.
تسنیم: مقام معظم رهبری نیز به اهمیت لایههای عمیقتر این مسائل اشاره کردهاند. آیا شما فکر میکنید که تأکید ایشان بیشتر بر جنبههای نرمافزاری است؟
زاهدی: مقام معظم رهبری دقیقا اعلام داشتند لایه های عمیق و متنوع هوش مصنوعی. که یکی از این لایه های متنوع می تواند جنبههای نرمافزاری و فکری (مغزافزاری) باشد. سوال اساسی این است که با فرض تامین تجهیزات سختافزاری به هر شکلی اعم از واردات یا ساخت (در یک دوره میان مدات و درازمدت)، قصد داریم با هوش مصنوعی به کجا برویم؟ آمریکا با هوش مصنوعی به دنبال تصاحب سرمایه (فکر و ثروت) ملت هاست، چین در یک جنگ سرد فناوری به دنبال رهبری فناوری دنیا و توسعه قلمرو خود و در اختیار گرفتن بخش قابل توجه بازار داده و اطلاعات دنیا از طریق توسعه سکوها است، ژاپن به دنبال حل مسائل جامع خود از جنس بحران پیری و افسردگی و فردگرایی و میل به انزوا است، ما به کدام سمت میخواهیم حرکت کنیم؟ مبانی فکری شکل دهنده فناوری در راهبردهای ملی ایران کدام است؟
صرفا استفاده از این فناوری برای انجام برخی تحقیقات و اجرای الگوهای زبانی و پردازش دادههای محیطی از حوزه سلامت و انرژی تا حوزه مالی و … یا اینکه پشت و عقبه این اقدامات یک تفکر و مبانی نظری است که به دنبال مفاهیمی از جنس عدالت، شفافیت، رفاه جامعه، معنویت و کمال گرایی است؟ اینجا همان نقطه ای است که نیاز به تفکر عمیق و دقیق دارد تا بتوان از درون این چالشها، فرصت های بی بدیل خلق کرد.
تسنیم: شما به تأثیرات گسترده هوش مصنوعی بر ابعاد فرهنگی و اجتماعی اشاره کردید. چگونه میتوانیم هوش مصنوعی را نه بهعنوان یک خطر، بلکه بهعنوان یک فرصت فرهنگی ببینیم؟
ضرورت بومیسازی فناوریهای هوش مصنوعی برای حفظ هویت ملی
زاهدی: هوش مصنوعی در بسیاری از جنبههای زندگی ما نفوذ کرده و این نفوذ میتواند به ابعاد متنوعی مانند فرهنگی، فلسفی و اجتماعی گسترش یابد. برای اینکه این فناوری را بهعنوان یک فرصت ببینیم، باید از تاثیر رسانه و شبکه های اجتماعی وراهبردهای فرهنگی مطلع بود. در کنار تمرکز بر محصولات فناورانه و بهره بردای از محصولات و خدمات فناوری، باید به مفاهیم عمیقتر هوش مصنوعی توجه کنیم و آن را با دیگر حوزههای دانشی مانند فلسفه و حکمت و فقه و مبانی معنا و غنی نماییم. این رویکرد کمک میکند تا از اثرات مخرب احتمالی جلوگیری شود و هوش مصنوعی به ابزاری بمنظور تقویت هویت ملی و باورهای دینی و در مسیر خدمت به جامعه تبدیل شود.
تسنیم: آیا امکان دارد که هوش مصنوعی منجر به بحران هویتی در جوامع شود؟
بحران هویتی و فرهنگی ناشی از پیشرفتهای هوش مصنوعی
زاهدی: یکی از نگرانیهای عمده این است که هوش مصنوعی، اگر بدون پشتوانه و پیشینه فکری و فلسفی و توجه به مبانی نظری استفاده شود، میتواند بحران هویتی به وجود آورد. این بحران ممکن است از طریق تغییر در الگوهای فکری و رفتاری ایجاد شود که از ابزارهای فناوری تغذیه میشوند. انسانها ممکن است به جای تعامل اجتماعی و فرهنگی، به فردگرایی و مسئولیتناپذیری تغییر هویت دهد. باید به نقش فرهنگ و باورهای دینی در شکلدهی به هویت جامعه و افراد توجه ویژه ای شود و از هوش مصنوعی بهعنوان ابزاری برای تثبیت و ارتقای این هویت بهره گرفت.
تسنیم: به نظر شما چگونه میتوانیم هوش مصنوعی را بهگونهای تعریف کنیم که با زیرساختهای فرهنگی و مذهبی ما سازگار باشد؟
زاهدی: ما میتوانیم از زبان فارسی و تاریخ و فرهنگ ملی و محتوا و مبانی دینی بهعنوان شالوده و زیرساخت های اصلی در تعریف و توسعه هوش مصنوعی استفاده کنیم. ایجاد نسخههای بومیسازی شده از ابزارهای هوش مصنوعی با تأکید بر ارزشهای محلی، میتواند به کاهش تبعات منفی و افزایش تاثیرات فرهنگی و اجتماعی کمک کند. باید دستیارها و سامانه های هوشمند و شخصی سازی شده ای ایجاد شود که افراد را به سمت کمال و تعالی سوق دهد.
تسنیم: تاثیر تاکیدات مقام معظم رهبری به هوش مصنوعی؟
زاهدی: در یک سال اخیر، رهبر معظم انقلاب در دیدارهای مختلفی که با عموم مردم، نخبگان و اعضای هیئت دولت داشتهاند، به نکات مهمی در حوزه هوش مصنوعی اشاره داشتهاند. توجه دادن دانشگاهها و پژوهشگاه ها به اهمیت تحقیق و توسعه در حوزه هوش مصنوعی، تبیین جایگاه ایران در بین چند قدرت برتر دنیا در زمینه هوش مصنوعی، لزوم فعال شدن دیپلماسی فعال فناوری و ایفای نقش در تنظیم توافق نامه ها و معاهدات بین المللی در زمینه توسعه و بهره برداری هوش مصنوعی و توجه به لایه های عمیق و متنوع هوش مصنوعی از جمله فرمایشات ایشان طی سالهای گذشته است.
آموزش و پژوهش: راهی برای مقابله با تأثیرات منفی هوش مصنوعی
این تاکیدات، نشاندهنده درک و فهم عمیق و در عین حال دغدغههای معظم له از تأثیرات هوش مصنوعی در جامعه و در اداره آینده دنیا است. تاکیدات ایشان در یک سال گذشته موجب شکل گیری گفتمانهای علمی و تقویت رشد فناوری هوش مصنوعی و تلاش مسئولان برای ارتقا دانش سازمانی هوش مصنوعی و برنامه ریزی برای استفاده درست از این فناوری در بمنظور دستیابی به کارآیی مطلوب است. اما یک همت و تلاش نخبگانی برای تبیین مبانی نظری هوش مصنوعی نیز باید شکل بگیرد.
تسنیم: موضوعات علمی و اجتماعی چه نقشی در این فرایند دارند؟
زاهدی: موضوعات علمی و اجتماعی باید بهعنوان کنشگران کلیدی در شکلگیری دیدگاهها و سیاستها پیرامون هوش مصنوعی عمل کنند. گفتوگو و همکاری بین متخصصان علوم اجتماعی و جامعه شناسی، حقوق و روانشناسی و سایر حوزهها برای ایجاد یک چارچوب جامع و چندبعدی ضروری است. ایجاد کرسیهای آزاداندیشی و زمینه سازی مشارکت عمومی در این حوزه نیز میتواند به فهم بهتر و تدوین راهبردهای مؤثری که فناوری را در خدمت توسعه بشریت قرار میدهد، کمک کند.
تسنیم: با توجه به تحولات گسترده در حوزه فناوری و هوش مصنوعی، بسیاری از افراد امیدوار بودند که این فناوریها به بهبود زندگی انسانها منجر شود. با این حال، به نظر میرسد که برخی معتقدند این ابزارها آرامش ظاهری به ارمغان آوردهاند ولی در عمل از انسانها قدرت اختیار را گرفتهاند. شما این موضوع را چگونه تحلیل میکنید؟
زاهدی: نمی توان پاسخ قطعی به این سوال داد. در ابتدا، وقتی صحبت از فناوریهای نوین مانند هوش مصنوعی به میان آمد، همه امیدوار بودند که این ابزارها بتوانند بار زیادی از دوش انسانها بردارند و زندگی را برای بشریت راحتتر کنند. اما حالا میبینیم که این فناوریها، به جای بهبود واقعی، نوعی وابستگی شدید ایجاد کردهاند. به عبارت دیگر، به جای اینکه انسانها در تصمیمگیریهای مهم زندگی، خودشان نقش اصلی را داشته باشند، بسیاری از این تصمیمها به دست الگوریتمها و سیستمها و دستیارهای هوشمند سپرده شده است. این مسئله آرامش ظاهری را به ارمغان میآورد، اما وابستگی شدید به این پدیده های نوظهور، قدرت اختیار و تصمیم و تحلیل را در انسان ها تضعیف میکند.
تسنیم: این روند چگونه بر حوزههای مختلف زندگی انسانها، بهویژه تصمیمگیریهای کلان و اجتماعی، تأثیر گذاشته است؟
زاهدی: تأثیرات این تغییرات بسیار گسترده است. در بسیاری از زمینهها مانند اقتصاد، سیاست و حتی آموزش، شاهد آن هستیم که سیستمهای هوش مصنوعی و الگوریتمهای دادهمحور به تصمیمگیران کلان کمک میکنند. این موضوع در فرآیند تصمیم سازی میتواند مفید باشد، اما چالش اصلی زمانی ایجاد میشود که انسانها بدون تفکر و تحلیل عمیق و مستقل، تنها به این سیستمها تکیه کنند. در واقع، در بسیاری از موارد شاهد هستیم که قدرت تصمیم انسانها بهطور مستقیم تحت تأثیر قرار گرفته و این باعث کاهش استقلال فکری و بروز خلاقیت و نوآوری میشود.
تسنیم: شما در حوزه آموزش عالی هم این چالشها را مشاهده کردهاید؟
تغییرات رفتاری و اجتماعی در دوران پساکرونا و وابستگی به فناوری
زاهدی: بله، بهویژه در حوزه آموزش این موضوع بسیار قابل توجه است. دوران کرونا یک نقطه عطف زندگی دیجیتال بود که بسیاری از دانشجویان و دانش آموزان به استفاده فراگیر از ابزارهای دیجیتال و آموزشهای برخط و استفاده از ابزارها و فناوری ها از جمله آزمایشگاه های واقعیت مجازی روی آوردند. این تحولات از یک سو لازم و ضروری بود، اما از سوی دیگر، باعث شد که تمایل به تفکر انتقادی و کنکاش و کنجکاوی و پرسشگری در میان یادگیرندگان کاهش یابد. بسیاری از دانشجویان دیگر علاقهای به تحقیق و بررسی عمیق مسائل نداشتند و بیشتر به دنبال اطلاعات آماده و راهحلهای سریع هستند. این مسئله، نه تنها از لحاظ علمی یک مشکل بزرگ است، بلکه در بلندمدت، تأثیرات منفی بر خلاقیت، کار تیمی و اقدامات نوآورانه دانشجویان خواهد گذاشت.
تسنیم: برخی معتقدند که این تحولات هدفمند بوده و بخشی از یک نقشه بزرگتر است. آیا شما هم این دیدگاه را تأیید میکنید؟
زاهدی: این یک بحث مهم و جدی است. برخی تحلیلگران بر این باورند که توسعه فناوریهای نوین، بهویژه هوش مصنوعی، به عنوان ابزاری برای استعمار نوین فرهنگی و اجتماعی که از آن به استعمار دیجیتال یاد می شود، طراحی شده است. به این معنا که جوامع به شکل هدفمند به سمت پذیرش بیچونوچرا از این فناوریها سوق داده میشوند. یکی از نشانههای این امر، سرعت فزاینده پذیرش اینترنت و ابزارهای دیجیتال در دوران پساکرونا است. مردم بهطور غیرمنتظرهای به این ابزارها وابسته شدهاند و این وابستگی، بدون ایجاد یک چارچوب مدون بومی و فاقد تناسب با بافت جوامع بوده است که میتواند به کنترل اجتماعی و حتی از دست رفتن آزادیهای فردی منجر شود. این نگرانیها واقعی است و نباید بهسادگی از کنار آنها گذشت.
تسنیم: با توجه به این چالشها، شما چه راهحلهایی را برای کاهش تأثیرات منفی پیشنهاد میکنید؟
پذیرش هوش مصنوعی: چالشها و فرصتهای پیشروی جامعه
زاهدی: بسیار مهم است که به یک تعادل در استفاده از فناوری و حفظ استقلال فکری و قوه اختیار انسان برسیم. در این زمینه، آموزش نقش اساسی دارد. مردم، بهویژه جوانان و دانشجویان، باید مهارتهای تفکر انتقادی را بیاموزند تا بتوانند از این فناوریها بهدرستی استفاده کنند. درحالیکه هوش مصنوعی و ربات ها در حال یادگری ارتقا خودآگاهی و خودشناسی هستند، انسان ها در حال دوری و فاصله از آن هستند. سیاستگذاریهای فرهنگی و اخلاقی مناسب میتواند نقش مهمی در این زمینه ایفا کند. بهطور کلی، باید فضایی ایجاد شود که مردم به جای اینکه صرفاً مصرفکنندگان فناوری باشند، توانمند شوند تا از این ابزارها به نفع توسعه فردی و اجتماعی استفاده کنند.
تسنیم: به عنوان سخن پایانی، آیا فکر میکنید جامعه آماده پذیرش چنین رویکردی است؟
زاهدی: جامعه در حال حرکت به سمتی است که این مسائل را جدیتر بگیرد. اما نیاز به آگاهی و آموزش گسترده داریم. مهم این است که سیاستگذاران، دانشگاهها و نهادهای فرهنگی، همکاری کنند تا چارچوبهای مناسبی برای استفاده از فناوریهای نوین فراهم شود. هوش مصنوعی و دیگر فناوریها میتوانند ابزارهای فوقالعادهای برای بهبود زندگی انسانها باشند، اما تنها در صورتی که با دقت و در راستای ارزشهای فرهنگی و اخلاقی جامعه استفاده شوند. در غیر این صورت، نه تنها مسائل پیرامونی ما حل نخواهد شد بلکه با چالشهایی به مراتب بزرگتر روبرو خواهیم شد.
انتهای پیام/
منبع: تسنیم