
سیاه و سفید یک هوش!
جهان در حال ورود به مرحله جدیدی است، همان که در فیلمهای عمدتا با موضوع آینده بشریت و در اصطلاح «فیلمهای آخرالزمانی هالیوودی» بر پرده سینما میرود و رباتهای هوشمند را همپای انسانها و گاه طغیانگر و ویرانکننده دنیا معرفی میکند. همان که حالا پا به عرصه وجود گذاشته و با برنامهنویسیهای پایتون قرار است کارهای شگرفی انجام دهد اما برخی نسبت به عملکرد هوش مصنوعی ابراز نگرانی کردهاند و درباره طغیانگری آن در آینده هشدار میدهند.
اما هوش مصنوعی چیست و چگونه میتواند ویرانگر و طغیانگر یا سازنده دنیای انسانها باشد؟ در تعریفی ساده باید گفت: هوش مصنوعی شاخهای گسترده از علوم رایانه است که ماشینهای هوشمندی میسازد تا از رفتارهای انسانی تقلید کنند.در تعریفی گستردهتر، این ماشینها تصمیماتی میگیرند که معمولا نیازمند سطحی از تجربه انسانی است و به انسانها کمک میکند مشکلات احتمالی را پیشبینی کند و بر آنها فائق آید. بهعبارتی روزی میرسد که هوش مصنوعی بهجای پزشک، قاضی و پلیس تصمیمگیری کند. باید تأکید کرد، هوش مصنوعی یکی از دستاوردهای درخشان بشر است و برای توصیف ماشینها یا رایانههایی به کار میرود که فعالیتهای شناختی وابسته به ذهن انسان مانند یادگیری و حل موضوع را بهخوبی انجام میدهند.
چرا با وجود این زوایای مفید و تأثیرگذار، کارشناسان درباره نقش هوش مصنوعی در آینده جامعه بشری هشدار میدهند و این ابزار نوظهور را غیرقابل کنترل میخوانند؟ استیون هاوکینگ، فیزیکدان و مدیر تحقیقات مرکز کیهانشناسی نظری دانشگاه کمبریج میگوید، «در کوتاهمدت تأثیر هوش مصنوعی به کنترلی بستگی دارد که روی آن اعمال میشود و در درازمدت تأثیر آن به این بستگی دارد آیا اصلا قابل کنترل خواهد بود یا خیر؟»
ایلان ماسک، مدیرعامل تسلا و مالک توییتر نیز با وجود اینکه یکی از سرمایهگذاران اصلی تولید و ارتقای هوش مصنوعی است، در کنفرانس فناوری ویوا در پاریس درباره امکان تبدیل هوش مصنوعی به چیزی غیرقابلکنترل هشدار داد و عنوان کرده باید در این زمینه قوانینی وضع شود.هوش مصنوعی و ابراز نگرانی و هشدار آنهایی که خود در گسترش و ارتقای آن نقش داشتهاند، حکایت دانشمندی است که ویروس خطرناکی کشف و بهدلیل نگرانی از آینده بشر و استفاده نادرست مستکبران و تعهد اخلاقی، نابودش میکند. اما آیا افرادی مانند ماسک بهدلیل تعهدات اخلاقی در قبال بشر، نگران چنین موضوعی هستند؟ قطعا اینگونه نیست.در عصر حاضر دانش در اختیار عده خاص و محدودی باقی نمیماند، خیلی زود فراگیر میشود و بهویژه کشورهایی که به لحاظ هوش ذاتی در سطح بالایی هستند و با وجود تحریم، پیشرفتهای عظیمی رقم میزنند، بهراحتی میتوانند به دانش و فناوری آن دست یابند.بهدلیل اینکه زیانها و خطرات هوش مصنوعی بر افرادی مانند ماسک روشن شده و نسبت به دستیابی همه دنیا به این فناوری مطمئن است، دنبال هشدار برای وضع قوانین در زمینه استفاده از این ابزار در چارچوب خاصی است.
نشریه فوربس در جدیدترین گزارش خود به معرفی خطرات بزرگ فناوری هوش مصنوعی و پیامدهای قانونی، اخلاقی و اجتماعی آن پرداخته است. طبق این گزارش، بهدلیل اینکه جهان شاهد رشد بیسابقه فناوری هوش مصنوعی است، توجه به خطرات و چالشهای بالقوه این فناوری میتواند اهمیت زیادی داشته باشد. هوش مصنوعی خطرات بزرگ و بسیار مهمی بهدنبال دارد که از تخریب کسبوکارها تا سلب امنیت و حریم خصوصی را دربر میگیرد و حتی میتواند به زیان بشریت یا حتی نابودی آن باشد.
طبق گزارش فوربس، تبعیض و تعصب، نقض حریم خصوصی، معضلات اخلاقی، خطرات امنیتی، تمرکز قدرت، وابستگی به هوش مصنوعی، جابهجایی مشاغل، نابرابری اقتصادی و... از خطرات هوش مصنوعی در عصر پیشرو خواهد بود.
به گفته محققان، در عصر حاضر که جنگهای شناختی بر پایه علومی نظیر اعصاب، روانشناسی، زبانشناسی و فلسفه ذهن تشکیل شده است، هوش مصنوعی تأثیر بسیار خطرناکی خواهد داشت و همانگونه که دانشمندان این علم به آن معترفند، اگر استفاده از این ابزار با رعایت اصول اخلاقی و انسانی همراه نباشد، میتواند به سلاح کشنده و تهدیدکننده بشریت تبدیل شود.پروژه اخیر ایلان ماسک بهعنوان نورالینک یکی از هولناکترین پروژههای در حال ساخت بهوسیله آمریکاست که میتواند با بهرهگیری از این فناوری و برخی حسگرها و چیپهای کاشتنی روی رفتار و حتی کنترل ذهن آنها تأثیر بسیاری داشته باشد. افزایش فرصتها برای کنترل و دستکاری افراد بهویژه مدیریت برداشت و ادراک آنان، افزایش و غیرانسانی کردن ظرفیت سلاحهای کشنده جنگی و شناختی و منسوخکردن کار انسانی و جایگزینی رباتهای دارای هوش مصنوعی و دستکاری اجتماعی بهعنوان مهمترین تهدیدات این فناوری مرتبط با سلامت انسانهاست.فناوری «دیپ فیک» یا جعل عمیق نیز با هوش مصنوعی تصاویر و فیلمهایی با چهره افراد میسازد که تشخیص اصل یا جعلی بودن آن بسیار سخت است و تنها با تکنیکهای سواد رسانهای و تشخیص اخبار جعلی میتوان آنها را تشخیص داد. تحریف هنرمندانه تاریخ، تغییر هویت و نسل آینده جوامع و طراحی سلاحهای خودگردان با نیروی هوش مصنوعی از دیگر مواردی است که استفاده از آن را نیازمند پروتکلهای خاص بینالمللی میکند تا بهعبارتی در آینده طغیان نکند.
چرا با وجود این زوایای مفید و تأثیرگذار، کارشناسان درباره نقش هوش مصنوعی در آینده جامعه بشری هشدار میدهند و این ابزار نوظهور را غیرقابل کنترل میخوانند؟ استیون هاوکینگ، فیزیکدان و مدیر تحقیقات مرکز کیهانشناسی نظری دانشگاه کمبریج میگوید، «در کوتاهمدت تأثیر هوش مصنوعی به کنترلی بستگی دارد که روی آن اعمال میشود و در درازمدت تأثیر آن به این بستگی دارد آیا اصلا قابل کنترل خواهد بود یا خیر؟»
ایلان ماسک، مدیرعامل تسلا و مالک توییتر نیز با وجود اینکه یکی از سرمایهگذاران اصلی تولید و ارتقای هوش مصنوعی است، در کنفرانس فناوری ویوا در پاریس درباره امکان تبدیل هوش مصنوعی به چیزی غیرقابلکنترل هشدار داد و عنوان کرده باید در این زمینه قوانینی وضع شود.هوش مصنوعی و ابراز نگرانی و هشدار آنهایی که خود در گسترش و ارتقای آن نقش داشتهاند، حکایت دانشمندی است که ویروس خطرناکی کشف و بهدلیل نگرانی از آینده بشر و استفاده نادرست مستکبران و تعهد اخلاقی، نابودش میکند. اما آیا افرادی مانند ماسک بهدلیل تعهدات اخلاقی در قبال بشر، نگران چنین موضوعی هستند؟ قطعا اینگونه نیست.در عصر حاضر دانش در اختیار عده خاص و محدودی باقی نمیماند، خیلی زود فراگیر میشود و بهویژه کشورهایی که به لحاظ هوش ذاتی در سطح بالایی هستند و با وجود تحریم، پیشرفتهای عظیمی رقم میزنند، بهراحتی میتوانند به دانش و فناوری آن دست یابند.بهدلیل اینکه زیانها و خطرات هوش مصنوعی بر افرادی مانند ماسک روشن شده و نسبت به دستیابی همه دنیا به این فناوری مطمئن است، دنبال هشدار برای وضع قوانین در زمینه استفاده از این ابزار در چارچوب خاصی است.
نشریه فوربس در جدیدترین گزارش خود به معرفی خطرات بزرگ فناوری هوش مصنوعی و پیامدهای قانونی، اخلاقی و اجتماعی آن پرداخته است. طبق این گزارش، بهدلیل اینکه جهان شاهد رشد بیسابقه فناوری هوش مصنوعی است، توجه به خطرات و چالشهای بالقوه این فناوری میتواند اهمیت زیادی داشته باشد. هوش مصنوعی خطرات بزرگ و بسیار مهمی بهدنبال دارد که از تخریب کسبوکارها تا سلب امنیت و حریم خصوصی را دربر میگیرد و حتی میتواند به زیان بشریت یا حتی نابودی آن باشد.
طبق گزارش فوربس، تبعیض و تعصب، نقض حریم خصوصی، معضلات اخلاقی، خطرات امنیتی، تمرکز قدرت، وابستگی به هوش مصنوعی، جابهجایی مشاغل، نابرابری اقتصادی و... از خطرات هوش مصنوعی در عصر پیشرو خواهد بود.
به گفته محققان، در عصر حاضر که جنگهای شناختی بر پایه علومی نظیر اعصاب، روانشناسی، زبانشناسی و فلسفه ذهن تشکیل شده است، هوش مصنوعی تأثیر بسیار خطرناکی خواهد داشت و همانگونه که دانشمندان این علم به آن معترفند، اگر استفاده از این ابزار با رعایت اصول اخلاقی و انسانی همراه نباشد، میتواند به سلاح کشنده و تهدیدکننده بشریت تبدیل شود.پروژه اخیر ایلان ماسک بهعنوان نورالینک یکی از هولناکترین پروژههای در حال ساخت بهوسیله آمریکاست که میتواند با بهرهگیری از این فناوری و برخی حسگرها و چیپهای کاشتنی روی رفتار و حتی کنترل ذهن آنها تأثیر بسیاری داشته باشد. افزایش فرصتها برای کنترل و دستکاری افراد بهویژه مدیریت برداشت و ادراک آنان، افزایش و غیرانسانی کردن ظرفیت سلاحهای کشنده جنگی و شناختی و منسوخکردن کار انسانی و جایگزینی رباتهای دارای هوش مصنوعی و دستکاری اجتماعی بهعنوان مهمترین تهدیدات این فناوری مرتبط با سلامت انسانهاست.فناوری «دیپ فیک» یا جعل عمیق نیز با هوش مصنوعی تصاویر و فیلمهایی با چهره افراد میسازد که تشخیص اصل یا جعلی بودن آن بسیار سخت است و تنها با تکنیکهای سواد رسانهای و تشخیص اخبار جعلی میتوان آنها را تشخیص داد. تحریف هنرمندانه تاریخ، تغییر هویت و نسل آینده جوامع و طراحی سلاحهای خودگردان با نیروی هوش مصنوعی از دیگر مواردی است که استفاده از آن را نیازمند پروتکلهای خاص بینالمللی میکند تا بهعبارتی در آینده طغیان نکند.