دیده بان پیشرفت علم، فناوری و نوآوری
فناوری‌های آینده ۱؛

معرفی فناوری‌های جذاب کاربردی در ۲۰۲۴/ از مهندسی پروتئین تا تشخیص جعل عمیق در رسانه‌ها

معرفی فناوری‌های جذاب کاربردی در ۲۰۲۴  از مهندسی پروتئین تا تشخیص جعل عمیق در رسانه‌ها
پیشرفت در حوزه هوش مصنوعی محور بسیاری از هیجان‌انگیزترین نوآوری‌ها و فناوری‌های امسال است؛ مهندسی پروتئین، چاپ سه‌بعدی، تشخیص جعل عمیق در رسانه‌ها ازجمله فناوری‌هایی هستند که سال جدید میلادی بیش از گذشته مورد توجه قرار می‌گیرد.
کد خبر : 895060

به گزارش خبرنگار خبرگزاری علم و فناوری آنا، همواره استفاده از فناوری در عرصه های مختلف دچار تغییر تحولاتی می شود. مهندسی پروتئین، چاپ سه بعدی، تشخیص جعل عمیق در رسانه‌ها و ... جزء زمینه هایی هستند که از فناوری بهره مند می شوند.

در این گزارش سعی داریم هفت حوزۀ فناوری‌های پیشرفته را که به نقل از نیچر در آیندۀ نزدیک اهمیت فراوانی دارند، معرفی کنیم. ویژگی مشترک همۀ این فناوری‌ها هوش مصنوعی و یادگیری عمیق است، اما بر خلاف ربات‌های گفت‌وگوی هوش مصنوعی، این فناوری‌ها چندان پر سروصدا نبوده‌اند. این هم دلیل دیگری است که سال جاری توجه بیشتری به این فناوری‌ها داشته باشیم.

 یادگیری عمیق برای طراحی پروتئین

هفت فناوری که باید در سال 2024 زیر نظر داشته باشیم

دو دهه پیش، دیوید بیکر (David Baker) از دانشگاه واشنگتن در سیاتل و همکارانش به یافته‌ای مهم دست یافتند: آنها از ابزارهای رایانشی برای طراحی یک پروتئین کاملاً جدید استفاده کردند. بی‌تردید این یافته ارزش رسیدن به مقام هفت فناوری برتر را دارد، اما پروتئین ساخته شدۀ آزمایش آنها هیچ کارکرد زیست‌شناختی معاناداری نداشت.

امروزه طراحی پروتئین جدید به ابزاری عملی برای تولید آنزیم‌های خاص و پروتئین‌ها مختلف تبدیل شده است. نیل کینگ (Neil King)، بیوشیمی‌دان دانشگاه واشنگتن که با تیم بیکر برای طراحی واکسن و انتقال دارو با کمک پروتئین‌ها همکاری می‌کند، می‌گوید: «این فناوری قدرت زیادی به ما می‌دهد. حدود یک سال و نیم پیش هیچ یک از این کارها ممکن نبودند، اما حالا خیلی راحت می‌توانیم انجام‌شان دهیم.»

بخش اعظم این پیشرفت به خاطر مجموعۀ کلان داده‌های فزاینده‌ای است که امکان مرتبط کردن توالی پروتئین به ساختار آنها را فراهم می‌کند. اما روش‌های پیچیدۀ یادگیری عمیق نیز در این پیشرفت‌ها نقشی کلیدی داشته‌اند.

استراتژی‌های «مبتنی بر توالی» از مدل‌های زبانی بزرگ (LLM) استفاده می‌کنند. این مدل‌های زبانی همان ابزار قدرتمندی است که در ربات‌های گفتگو مثلاً ربات چت چت‌جی‌پی‌تی استفاده می‌شود (نگاه کنید به انتهای همین قسمت و بخش «چت‌جی‌پی‌تی؟ شاید سال بعد»). الگوریتم‌ها مدل‌های زبانی بزرنگ توالی‌ پروتئینی را مثل اسنادی می‌بیند که به جای «کلمات» از پلی‌پپتید (polypeptide) تشکیل شده‌اند. بدین ترتیب الگوریتم می‌تواند الگوهایی را تشخیص دهد که زیربنای معماری پروتئین‌های دنیای واقعی هستند.

نولیا فروز (Noelia Ferruz)، متخصص بیوشیمی پروتئینی در موسسه زیست‌شناسی مولکولی بارسلونای اسپانیا، می‌گوید: «این الگوریتم‌ها واقعاً این دستور زبان مخفی را یاد می‌گیرند.» در سال 2022، تیم نولیا الگوریتمی به نام پروت‌جی‌پی‌تی2 (ProtGPT2) توسعه داد که به طور مداوم طرح‌هایی برای پروتئین‌های مصنوعی ارائه می‌داد، با این ویژگی خاص که پروتئین‌های پیشنهادی پروت‌جی‌پی‌تی2 امکان تولید پایدار در آزمایشگاه را دارند. ابزار دیگری که نولیا توسعه داده است زیم‌کنترل (ZymCTRL) نام دارد که از داده‌های توالی و عملکردی استفاده می‌کند تا با کمک آنزیم‌های هم‌خانواده، آنزیم‌های طبیعی جدید تولید کند.

رویکردهای «مبتنی بر توالی» می‌توانند برای ساختن چارچوب‌های تازه، ویژگی‌های پروتئین‌های موجود را مبنا قرار دهند و با آنها انطباق پیدا کنند، اما برای طراحی عناصر ساختاری یا ویژگی‌های از پیش تعیین شده چندان کارآمد نیستند، مثلاً این قابلیت را ندارند که آنزیمی تولید کنند که اهداف خاصی را دنبال کند.

اما رویکردهای «مبتنی بر ساختار» از این منظر کارایی بیشتری دارند و در سال 2023 نیز شاهد پیشرفت قابل توجهی در الگوریتم‌های طراحی این پروتئین‌ها بودیم. برخی از پیچیده‌ترین این رویکردها، از مدل‌های «انتشار» استفاده می‌کنند که زیربنای ابزارهای تصویرسازی مثل دال‌ئی (DALL-E) نیز هستند. این الگوریتم‌ها در ابتدا برای حذف نویز رایانه‌ای از شمار زیادی از ساختارهای واقعی طراحی شده بودند؛ اما با یادگیری شیوۀ تمایزگذاری میان عناصر ساختارهای واقعی و نویز، قادر شده‌اند ساختارهای تعریف‌شده‌ای را تشکیل دهند که از نظر زیست‌شناختی امکان‌پذیر هستند.

نرم‌افزار آر‌اف‌دیفیوژن3 (RFdiffusion3) که توسط آزمایشگاه بیکر و ابزار کروما (Chroma) که توسط شرکت جنریت بیومدسینز (Generate Biomedicnes) در سامرویل، ماساچوست توسعه یافته است، از این استراتژی به خوبی بهره‌برداری کرده‌اند. مثلاً، تیم بیکر از آر‌اف‌دیفیوژن3 برای مهندسی پروتئین‌های جدیدی استفاده می‌کند که می‌توانند رابطۀ محکمی با اهداف از پیش‌تعیین‌شده برقرار کنند. نسخۀ جدیدتر آر‌اف‌دیفیوژن که با نام «همۀ اتم‌ها» شناخته می‌شود، به طراحان اجازه می‌دهد تا به صورت رایانشی پروتئین‌ها را حول اهداف غیر‌پروتئینی نیز شکل دهند، مثلاً حول دی‌ان‌اِی‌ها، مولکول‌های کوچک و حتی یون‌های فلزات. این حد از انعطاف‌پذیری افق‌های تازه‌ای پیش روی مهندسی آنزیم‌ها، مواد زیستی کاربردی و دیگر فعالیت‌ها قرار می‌دهد.

 شناسایی جعل عمیق

هفت فناوری که باید در سال 2024 زیر نظر داشته باشیم

دسترسی عمومی و گسترده به «الگوریتم‌های هوش مصنوعی مولد» باعث شده که ترکیب کردن تصویر، صدا و ویدیوهایی که به نظر واقعی می‌رسند، اما کاملاً ساختگی هستند، بسیار ساده شود. نتیجۀ این امر می‌تواند ویدئوهای سرگرم‌کننده‌ باشد؛ اما در میانۀ بحران‌های ژئوپلیتیکی و انتخابات‌ ریاست‌جمهوری ایالات متحده، این ابزار می‌تواند به سلاحی رسانه‌ای نیز تبدیل شود.

سیوی لیو (Siwei Lyu)، دانشمند علوم کامپیوتر در دانشگاه بوفالو در نیویورک، می‌گوید که «مثلاً، تصاویر و صداهایی از درگیری‌های میان اسرائیل و حماس را دیده است که توسط هوش مصنوعی تولید شده‌اند و «جعل عمیق» هستند.» این مرحلۀ جدیدی از بازی موش و گربه است که طی آن کاربران هوش مصنوعی محتوای فریبنده و ساختگی تولید می‌کنند و لیو و سایر متخصصان درستی‌سنجی رسانه‌ها، برای شناسایی و رهگیری محتوای جعلی تلاش می‌کنند.

یک راه حل این است که توسعه‌دهندگان هوش مصنوعی سیگنال‌های مخفیانه‌ای در خروجی ابزارهای خود جاسازی کنند و بر محتوای تولید شده توسط هوش مصنوعی نشانه‌هایی بگذارند. استراتژی‌های دیگری هم هستند که بر خود محتوا تمرکز می‌کنند. مثلاً در برخی ویدیوهای دستکاری شده، ویژگی‌های چهره یک شخصیت عمومی با ویژگی‌های چهرۀ شخصیتی دیگر جایگزین می‌شود و الگوریتم‌های جدید می‌توانند مرز میان این دو تصویر را شناسایی کنند. یک نمونه این است که چین و چروک‌‌های گوش هر فرد می‌تواند شاهدی برای عدم تطابق بین صورت و سر باشد، یا بی‌نظمی در ترتیب دندان‌ها یا دقت همگام‌سازی لب‌ها در ویدیوهای ویرایش‌شده می‌تواند نشان دهد که آیا در این ویدئو دهان فرد به صورت دیجیتالی دستکاری شده است که حرفی در دهانش گذاشته شود یا نه.

عکس‌هایی که هوش مصنوعی تولید می‌کند نیز چالش‌برانگیز هستند. در سال 2019، لویزا وردولیوا (Luisa Verdoliva)، متخصص رسانه در دانشگاه فدریکوی دوم ناپل ایتالیا، نرم‌افزار فیس‌فورنزیکس++ (FaceForensics++) را توسعه داد. این ابزار می‌تواند تعیین کند که آیا نرم‌افزارهای پرکاربرد برای تغییر چهره‌ در عکس استفاده شده‌اند یا نه. اما روش‌های تشخیص صحت تصویر بسته به هر موضوع و هر نرم‌افزار متفاوت هستند و تعمیم استفاده از آنها چالش‌برانگیز است. لویزا می‌گوید: «شما نمی‌توانید یک آشکارساز جهان‌شمول داشته باشید؛ چنین کاری بسیار دشوار است.»

علاوه بر همۀ اینها، شیوۀ استفاده از این ابزارها نیز چالش‌برانگیز بوده است. برنامۀ سِمافور (SemaFor) با حمایت آژانس پروژه‌های تحقیقاتی پیشرفتۀ دفاعی ایالات متحده، جعبه ابزار مفیدی برای تجزیه و تحلیل جعل عمیق فراهم کرده است. اما معمولاً رسانه‌های اجتماعی بزرگ از این ابزار استفاده نمی‌کنند. گسترش دسترسی به چنین ابزارهایی می‌تواند منجر به پذیرش آن در رسانه‌های اجتماعی شود. به همین منظور، تیم لیو پروژه‌ای با نام دیپ‌فیکومتر7 (DeepFake-O-Meter7) راه‌اندازی کرده‌اند که یک منبع عمومی متمرکز از الگوریتم‌هایی است که می‌تواند محتوای ویدیویی را از زوایای مختلف تجزیه و تحلیل و محتوای جعل عمیق را شناسایی کند. چنین منابعی مفید خواهند بود، اما این احتمال وجود دارد که نبرد علیه اطلاعات نادرستی که هوش مصنوعی تولید می‌کند برای سال‌های سال ادامه پیدا کند.

چت‌جی‌پی‌تی؟ شاید سال بعد

هفت فناوری که باید در سال 2024 زیر نظر داشته باشیم

شاید متوجه شده باشید که مضمون مشترک فناوری‌های امسال «روش‌های یادگیری عمیق» است. اما یکی از ابزارهای بسیار معروف در این حوزه به فهرست نهایی راه نیافته است: ربات‌های گفتگوی بسیار پرطرفدار با هوش مصنوعی. به نظر می‌رسد چت‌جی‌پی‌تی و نمونه‌های مشابه آن ابزار دست و همکار روزمرۀ بسیاری از محققان شده‌اند و حتی توانسته‌اند به فهرست ده فناوری برتر نیچر برای سال 2023 نیز راه پیدا کنند. پاسخ‌دهندگان یکی از نظرسنجی‌های نیچر در ماه سپتامبر چت‌جی‌پی‌تی را به عنوان مفیدترین ابزار مبتنی بر هوش مصنوعی برشمردند و توانایی آن در کدنویسی، نگارش پیشینۀ ادبیات و انجام وظایف اداری را ستودند.

چنین ابزارهایی از منظر عدالت اجتماعی نیز ابزارهای ارزشمندی محسوب می‌شوند، زیرا به کسانی که انگلیسی زبان اول‌شان نیست کمک می‌کنند نثرشان را اصلاح کنند و در نتیجه مسیرشان را برای انتشار و رشد شغلی آسان‌تر می‌کند. با این حال، بسیاری از این کاربردها فرآیند تحقیق را دگرگون نمی‌کند و صرفاً در زحمت لازم و نیروی کار صرفه‌جویی می‌کند. علاوه بر این، انتشار مداوم پاسخ‌های گمراه‌کننده یا ساختگی در چت‌جی‌پی‌تی نگرانی بیش از دو سوم پاسخ‌دهندگان این نظرسنجی بود. هرچند این ابزار ارزش آن را دارد که در سال آینده از آن بی‌خبر نمانیم، اما برای رسیدن به بلوغ و تثبیت نقش گسترده‌تر خود در دنیای علمی نیاز به زمان بیشتری دارند.

انتهای پیام/

ارسال نظر
هلدینگ شایسته