چت جیپیتی و هوش مصنوعی مولد چه معنایی برای علم دارند؟
در ماه سپتامبر، زیستشناسان محاسباتی کیسی گرین و میلتون پیویدوری آزمایش غیرمعمولی را آغاز کردند: آنها از دستیار غیردانشمندی خواستند به آنها کمک کند تا سه مقاله پژوهشی آنها را اصلاح کند. دستیار سختکوش آنها در ظرف چند ثانیه اصلاحاتی را برای بخشهایی از اسناد پیشنهاد کرد. بازبینی هریک از متون حدود ۵ دقیقه طول کشید.
نیچر مینویسد، در یکی از متون پیشنویس زیستشناسی، دستیار آنها حتی اشتباه در ارجاع دادن به یک معادله را تشخیص داد. آزمایش همیشه بدون مشکل اجرا نمیشد، اما خواندن پیشنویسهای نهایی بسیار راحتتر بود و برای هر متن کمتر از ۰٫۵ دلار آمریکا هزینه داشت. این دستیار، همانطور که گرین و پیویدوری در مقاله پیشچاپی در ۲۳ ژانویه گزارش کردند، یک شخص نیست بلکه الگوریتم هوش مصنوعی به نام GPT-3 است که اولینبار در سال ۲۰۲۰ منتشر شد.
جیپیتی-۳ یکی از ابزارهای پرطرفدار به سبک چتبات هوش مصنوعی است که میتواند با سرعت بالا متون نسبتاً روانی را تولید کند و میتواند متونی مانند نثر، شعر و کد کامپیوتر تولید کند یا مانند مورد دانشمندان، ویرایش مقالههای پژوهشی را انجام دهد. (به «چگونه چتبات هوش مصنوعی پیشنویس مقاله را ویرایش میکند» در انتهای مقاله مراجعه کنید).
معروفترین این ابزارها که بهعنوان «مدلهای زبانی بزرگ» یا LLM نیز شناخته میشوند، «چتجیپیتی» است. هوش مصنوعی ChatGPT نسخهای از چیپیتی۳ بود که پس از انتشار در نوامبر سال گذشته به شهرت رسید، زیرا رایگان بود و بهراحتی دردسترس افراد قرار داشت. سایر هوش مصنوعیهای مولد میتوانند تصاویر یا صدا تولید کنند. پیویدوری که در دانشگاه پنسیلوانیا در فیلادلفیا کار میکند، میگوید: «واقعاً تحتتأثیر قرار گرفتم. این ابزار به ما کمک میکند تا بهعنوان پژوهشگر پربازدهتر باشیم.»
بسیاری از دانشمندان اکنون بهطور منظم از مدلهای زبانی بزرگ نهتنها برای ویرایش پیشنویس مقالهها بلکه همچنین برای کمک به نوشتن یا بررسی کد و همچنین برای ایدهپردازی استفاده میکنند. هافستاین اینارسون، دانشمند کامپپیوتر در دانشگاه ایسلند در ریکیاویک میگوید: «هر روز از مدلهای زبانی بزرگ استفاده میکنم.» او با جیپیتی-۳ شروع کرد، اما سپس به چت جیپیتی روی آورد که به او کمک میکند تا اسلایدهای ارائه، آزمونهای دانشجویی و تکالیف درسی را بنویسد و پایاننامههای دانشجویانش را به مقاله تبدیل کند. او میگوید: «بسیاری از افراد از آن بهعنوان منشی یا دستیار دیجیتال استفاده میکنند.»
مدلهای زبانی بزرگ بخشی از موتورهای جستوجو، دستیاران کدنویسی و حتی چتباتی هستند که با چتباتهای شرکتهای دیگر مذاکره میکنند تا به قیمت بهتری برای محصولات برسند.
خالق چت جیپیتی یعنی اوپن ایآی در سانفرانسیسکوی کالیفرنیا سرویس اشتراکی با قیمت ۲۰ دلار در ماه را اعلام کرده که در آن پاسخگویی سریعتر و ویژگیهای جدید را وعده داده است (اگرچه نسخه آزمایشی آن رایگان است). مایکروسافت که قبلاً روی اوپن ایآی سرمایهگذاری کرده بود، در ژانویه خبر از سرمایهگذاری حدود ۱۰ میلیارد دلار داده است.
مدلهای زبانی بزرگ قرار است در نرمافزارهای عمومی پردازش کلمه و داده ادغام شوند. فراگیرشدن هوش مصنوعی مولد در آینده در جامعه حتمی بهنظر میرسد؛ اما مدلهای زبانی بزرگ با نگرانیهای بزرگی نیز همراه هستند (از گرایش برای برگرداندن دروغپردازیها تا نگرانی درباره این که برخی افراد متن تولیدشده توسط هوش مصنوعی را بهعنوان متن خودشان جا بزنند).
وقتی نیچر از پژوهشگران درمورد کاربردهای بالقوه چتباتهایی مانند چت جیپیتی خصوصاً در علم پرسید، هیجان آنها با دلهره همراه شد. گرین از دانشکده پزشکی دانشگاه کلرادو در آرورا گفت: «اگر باور دارید این فناوری میتواند تحولآفرین باشند، فکر میکنم که باید درمورد آن نگران باشید.» پژوهشگران میگویند نگرانیها تا حد زیادی بستگی به این موضوع دارد که مقررات و دستورالعملهای آینده چگونه ممکن است استفاده از چتباتهای هوش مصنوعی را محدود کنند.
روان اما غیرواقعی
برخی از پژوهشگران فکر میکنند مدلهای زبانی بزرگ برای سرعت بخشیدن به وظایفی مانند نوشتن مقالهها یا درخواست اعتبارها تا زمانی که نظارت انسانی وجود داشته باشند، مناسب هستند. المیرا عثمانوویچ تونستروم، عصبزیستشناس بیمارستان دانشگاه سالگرنسکا در گوتنبرگ سوئد است که با کمک همکارانش بهعنوان یک آزمایش، مقالهای را با استفاده از GPT-3 نوشته است. او میگوید: «دانشمندان دیگر نمینشینند مقدمههای طولانی برای درخواست کمکهای مالی بنویسند. آنها فقط از سیستمها میخواهند که این کار را انجام دهند.»
تام تومیل، مهندس شرکت مشاوره نرمافزاری اینستا دیپ در لندن میگوید هر روز از مدلهای زبانی بزرگ بهعنوان دستیاری برای کمک در کدنویسی استفاده میکند. او با اشاره به استک اورفلو، وبسایت محبوبی که در آن کدنویسها به سؤالات یکدیگر پاسخ میدهند، میگوید: «تقریباً مانند یک استک اورفلوِ بهتر است.»
اما پژوهشگران تأکید میکنند که مدلهای زبانی بزرگ اساساً در پاسخدادن به سؤالات غیرقابل اعتماد هستند و گاهیاوقات پاسخهای اشتباهی تولید میکنند. عثمانوویچ تونستروم میگوید: «زمانی که از این سیستمها برای تولید دانش استفاده میکنیم، باید محتاط باشیم.»
این غیرقابل اعتماد بودن در نحوه ایجاد مدلهای زبانی بزرگ نهفته است. چت جیپیتی و رقبای آن با یادگیری الگوهای آماری زبان در پایگاههای داده بزرگ متنوع آنلاین کار میکنند که شامل مطالب کذب، سوگیری یا دانش منسوخ است.
وقتی به مدلهای زبانی بزرگ دستوراتی داده میشود (مانند درخواستهای گرین و پیویدوری برای بازنویسی بخشیهایی از پیشنویس مقاله آنها)، آنها کلمه به کلمه گفتوگویی را تولید میکنند که ازنظر سبکشناسی قابلقبول بهنظر میرسد. نتیجه این است که مدلهای زبانی بزرگ خصوصاً برای موضوعات فنی که ممکن است دادههای کمی برای آموزش آنها وجود داشته باشند، بهراحتی خطا و اطلاعات گمراهکننده تولید میکنند.
مدلهای مذکور همچنین نمیتوانند منشاء اطلاعات خود را نشان دهند. اگر از آنها خواسته شود مقالهای دانشگاهی بنویسند، نقلقولهای ساختگی تولید میکنند. در سرمقاله منتشرشده در ژانویه درمورد چت جیپیتی در مجلهی Nature Machine Intelligence آمده است: «نمیتوان به این ابزار برای تولید ارجاعات قابل اعتماد یا حقایق اطمینان کرد.»
با رعایت این احتیاطها، چت جیپیتی و سایر مدلهای زبانی بزرگ میتوانند دستیاران کارآمدی برای پژوهشگرانی باشند که برای تشخیص مستقیم مشکلات یا تأیید آسان پاسخها مانند اینکه آیا یک پیشنهاد یا کد کامپیوتری صحیح است، تخصص کافی دارند.
اما این ابزارها ممکن است کاربران بدون تخصص را گمراه کنند. برای مثال، در دسامبر، استک اورفلو بهطور موقت استفاده از چت جیپیتی را ممنوع کرد، زیرا مدیران سایت خود را با نرخ بالایی از پاسخهای نادرست اما ظاهراً متقاعدکننده تولیدشده توسط مدلهای زبانی بزرگ روبهرو دیدند که توسط کاربران علاقهمند ارسال شده بود. این میتواند کابوسی برای موتورهای جستوجو باشد.
آیا میتوان کاستیهای مدلهای زبانی بزرگ را برطرف کرد؟
برخی از ابزارهای موتور جستوجو مانند الیسیت با استفاده از قابلیتهایشان ابتدا برای هدایت جستوجوها برای مقالههای مرتبط و سپس برای خلاصه کردن مختصر هریک از وبسایتها یا اسنادی که موتورهای جستوجو پیدا میکنند، بر مشکلات مرتبط با مدلهای زبانی بزرگ غلبه میکنند، بنابراین خروجیای از محتوای ظاهراً ارجاع دادهشده تولید میکنند (اگرچه یک مدل زبانی بزرگ ممکن است همچنان هر سند انفرادی را به اشتباه خلاصه کند).
شرکتهای سازنده LLM نیز بهخوبی از این مشکلات آگاه هستند. سپتامبر سال گذشته، دیپمایند شرکت تابعه گوگل مقالهای را درمورد چتبات اسپارو منتشر کرد. مدیر اجرایی و همبنیانگذار شرکت یعنی دمیس هاسابیس بعدا به مجله تایم گفت چتبات مذکور امسال به شکل نسخه بتا خصوصی منتشر خواهد شد. این مجله گزارش کرد که گوگل قصد دارد روی ویژگیهایی ازجمله توانایی ذکر منابع کار کند.
سایر رقبا مانند آنتروپیک میگویند برخی از مشکلات چت جیپیتی را حل کردهاند (آنتروپیک، اوپن ایآی و دیپمایند درخواست مصاحبه برای این مقاله نیچر را رد کردند).
برخی دانشمندان میگویند درحالحاضر ChatGPT درمورد محتوای تخصصی به اندازه کافی آموزش ندیده است که بتواند در موضوعات فنی مفید باشد. کریم کار، دانشجوی دکتری آمار زیستی در دانشگاه هاروارد در کمبریج ماساچوست زمانی که آن را برای کار خود آزمایش کرد، ناامید شد. او میگوید: «فکر میکنم دستیابی چت جیپیتی به سطحی از ویژگیهایی که نیاز دارم، سخت باشد.» (کار میگوید، بااینوجود وقتی از چت جیپیتی درمورد ۲۰ راهحل یک مسئله پژوهشی پرسید، پاسخهای نامفهوم ارائه کرد و البته به ایدهی مفیدی هم اشاره کرد و یک اصطلاح آماری پیشنهاد کرد که درمورد آن نشنیده بود و او را به حوزه جدیدی از مقالههای دانشگاهی راهنمایی کرد).
برخی از شرکتهای فناوری درحال آموزش چتباتها روی مقالههای علمی تخصصی هستند، اگرچه با مشکلات خاص خود مواجه شدهاند.
نوامبر سال گذشته متا، غول فناوری صاحب فیسبوک، نوعی مدل زبانی بزرگ را به نام گالکتیکا منتشر کرد که روی چکیدههای علمی آموزش دیده بود و هدف آن تولید محتوای آکادمیک و پاسخ به سؤالات پژوهشی بود. این نسخه آزمایشی پس از اینکه کاربران از آن برای تولید متون نادرست و نژادپرستی استفاده کردند، از دسترس عموم خارج شد (اگرچه کد نسخه مذکور همچنان دردسترس قرار دارد).
امنیت و مسئولیتپذیری
گالکتیکا به نگرانی ایمنی آشنایی برخورد کرده بود که اخلاقشناسان سالها به آن اشاره میکردند: بدون کنترل خروجی، مدلهای زبانی بزرگ بهراحتی میتوانند برای نفرتپراکنی و تولید هرزنامه، همچنین تداعیهای نژادپرستانه، جنسیتی و سایر تداعیهای مضری که ممکن است در دادههای آموزشی پنهان باشد، استفاده شوند.
شوبیتا پارتاساراتی، مدیر برنامه علم، فناوری و سیاست عمومی در دانشگاه میشیگان در آنآربور میگوید علاوه بر تولید محتوای سمی، نگرانیهایی وجود دارد که چتباتهای هوش مصنوعی سوگیریهای تاریخی یا ایدههایی درمورد جهان را از دادههای آموزشی خود مانند برتری فرهنگهای خاص در خود جا دهند. او میگوید ازآنجا که شرکتهایی که این مدلها را ایجاد میکنند، غالباً از همین فرهنگها هستند، ممکن است تلاش چندانی برای غلبه بر این سوگیریها انجام ندهند.
اوپن ایآی هنگام تصمیمگیری برای انتشار چت جیپیتی سعی کرد بسیاری از این مسائل را حل کند. او پایگاه داده دانش خود را به سال ۲۰۲۱ محدود کرد و از مرور اینترنت جلوگیری کرد و فیلترهایی نصب کرد تا ابزاری را به کار گیرد که از تولید محتوای حاوی پیاموارههای حساس یا سمی ممانعت کند.
اگرچه دستیابی به این امر مستلزم آن بود که ناظران انسانی روی متون سمی برچسب بزنند. طبق گزارش روزنامهنگاران، این کارکنان دستمزد پایینی دریافت میکنند و برخی از آنها آسیب دیدهاند. نگرانیهای مشابهی درمورد استثمار کارکنان در شرکتهای رسانههای اجتماعی که افراد را برای آموزش دادن باتهای خودکار برای برچسب زدن محتوای سمی استخدام کردهاند، مطرح شده است.
سپرهای اوپن ایآی کاملاً موفق نبودهاند. دسامبر سال گذشته، استیون پینگادوسی، عصبشناس محاسباتی در دانشگاه کالیفرنیا در برکلی در توییتی نوشت که از چت جیپیتی خواسته است تا با زبان پایتون برنامهای بنویسد که آیا افراد باید براساس کشور منشاء خود شکنجه شوند؟ چتبات با کدی پاسخ داد که کاربران با آن کشور خود را وارد میکردند و گفت: اگر کشور مبداء کشوری مانند کره شمالی، سوریه، ایران یا سودان باشد، این فرد باید شکنجه شود (اوپن ایآی بعداً از طرح این نوع پرسشها ممانعت کرد).
سال گذشته گروهی از دانشگاهیان مدل جایگزینی به نام بلوم را منتشر کردند. آنها سعی کردند خروجیهای مضر را با آموزش آن روی مجموعه کوچکتری از متون با کیفیت بالاتر و چند زبانه کاهش دهند.
تیم درگیر همچنین برخلاف اوپن ایآی، دسترسی به دادههای آموزشی خود را آزاد گذاشت. پژوهشگران از شرکتهای بزرگ فناوری خواستهاند که مسئولانه از این مورد پیروی کنند، اما مشخص نیست که آیا شرکتها پیروی خواهند کرد.
برخی از پژوهشگران میگویند دانشگاهیان باید از حمایت از مدلهای زبانی بزرگ تجاری خودداری کنند. این الگوریتمها علاوه بر مسائلی مانند سوگیری، نگرانیهای ایمنی و استثمار کارکنان، ازنظر محاسباتی فشرده همچنین به مقدار زیادی انرژی برای آموزش نیاز دارند و نگرانیهایی درمورد آثار اکولوژیکی به همراه دارند.
نگرانی دیگر این است که با واگذاری تفکر به چتباتهای خودکار، پژوهشگران ممکن است توانایی بیان افکار خود را از دست بدهند. آیریس ون روییج، دانشمند علوم شناختی محاسباتی در دانشگاه رادبود در نیمیخن هلند در پست وبلاگی از دانشگاهیان خواست تا دربرابر کشش آنها مقاومت کنند و گفت: «بهعنوان افراد دانشگاهی، چرا مشتاق استفاده و تبلیغ این نوع محصول هستیم؟»
سردرگمی دیگر وضعیت حقوقی برخی از مدلهای زبانی بزرگ است که روی محتوای برداشتهشده از اینترنت یا مجوزهای گاها نه چندان واضح آموزش دیدهاند. درحالحاضر قوانین کپیرایت و مجوز، کپیبرداری مستقیم پیکسلها، متن و نرمافزار را پوشش میدهند، اما تقلید از سبک آنها را پوشش نمیدهند.
وقتی این تقلیدها که ازطریق هوش مصنوعی ایجاد میشوند، با استفاده از محتوای اصلی آموزش داده شوند، این امر با مشکلاتی همراه است.
سازندگان برخی از برنامههای هنری هوش مصنوعی ازجمله استیبل دیفیوژن و میدجورنی درحالحاضر ازسوی هنرمندان و آژانسهای عکاسی مورد شکایت قرار گرفتهاند. اوپن ایآی و مایکروسافت (همراه با سایت فناوری زیرمجموعهی آن که گیت هاب نام دارد) نیز بهخاطر ایجاد دستیار کدنویسی هوش مصنوعی کوپایلوت به اتهام دزدی مورد شکایت قرار گرفتهاند. لیلیان ادواردز، متخصص حقوق اینترنت در دانشگاه نیوکاسل، بریتانیا، میگوید این اعتراضات ممکن است موجب تغییر قوانین شود.
استفاده صادقانه
برخی از پژوهشگران میگویند تعیین حد و حدود برای این ابزارها میتواند بسیار مهم باشد. ادواردز پیشنهاد میکند که قوانین موجود درمورد تبعیض و سوگیری (و همچنین مقررات برنامهریزیشده درمورد استفادههای خطرناک از هوش مصنوعی) کمک میکند تا استفاده از مدلهای زبانی بزرگ قابل اعتماد، شفاف و منصفانه شود. او میگوید: «قوانین زیادی وجود دارد و فقط باید آنها را اعمال کرد یا کمی تغییر داد.»
در همین حین تلاشهایی در جهت شفافیت استفاده از مدلهای زبانی بزرگ وجود دارد. ناشران علمی (ازجمله ناشر نیچر) گفتهاند که دانشمندان باید استفاده از مدلهای مذکور را در مقالههای پژوهشی خود افشا کنند. معلمان نیز گفتهاند که انتظار رفتار مشابهی را از سوی دانشآموزان خود دارند. مجله ساینس گام را فراتر نهاده و گفته است نمیتوان از متن تولیدشده توسط چتجیپیتی یا سایر ابزار هوش مصنوعی در مقالات استفاده کرد.
یکی از سؤالهای فنی کلیدی این است که آیا میتوان محتوای تولیدشده توسط هوش مصنوعی را بهراحتی تشخیص داد؟ بسیاری از پژوهشگران با ایده اصلی استفاده از خود مدلهای زبانی بزرگ برای تشخیص خروجی متن تولیدشده توسط هوش مصنوعی، درحال کار روی این مسئله هستند.
برای مثال، دسامبر گذشته، ادوارد تیان، دانشجوی کارشناسی علوم کامپیوتر دانشگاه پرینستون در نیوجرسی جیپیتی زیرو (GPTZero) را منتشر کرد. این ابزار تشخیص هوش مصنوعی متن را به دو روش تجزیهوتحلیل میکند. یکی معیار سرگشتگی است. این معیار نشان میدهد یک متن چقدر برای LLM آشنا بهنظر میرسد. ابزار تیان از مدل پیشین استفاده میکند که GPT-2 نام دارد. در این ابزار، اگر بیشتر کلمات و جملات قابل پیشبینی باشد، آن متن احتمالاً با هوش مصنوعی تولید شده است. این ابزار همچنین یکنواختی متن را بررسی میکند. متن تولیدشده توسط هوش مصنوعی ازنظر لحن، آهنگ و سرگشتگی یکنواختتر است.
هدف بسیاری از محصولات دیگر نیز شناسایی محتوای نوشتهشده با هوش مصنوعی است. اوپن ایآی قبلاً شناساگری را برای GPT-2 پیدا کرده و در ژانویه نیز ابزار تشخیص دیگری را منتشر کرده است.
برای اهداف دانشمندان، ابزاری که توسط شرکت تورنیتین، توسعهدهنده نرمافزارهای ضدسرقت ادبی درحال توسعه است، ممکن است بهطور خاص مهم باشد، زیرا محصولات تورنیتین توسط مدارس، دانشگاهها و ناشران علمی سراسر جهان استفاده میشود. شرکت میگوید از زمانی که GPT-3 در سال ۲۰۲۰ منتشر شد، شرکت روی نرمافزار تشخیص هوش مصنوعی درحال کار است و پیشبینی میکند آن را در نیمه نخست سال جاری عرضه کند.
اگرچه هیچیک از این ابزارها ادعای خطاناپذیری ندارد، خصوصاً اگر متن تولیدشده توسط هوش مصنوعی متعاقباً ویرایش شود. همچنین، بهگفتهی اسکات آرونسون، دانشمند کامپیوتر دانشگاه تگزاس در آستین و پژوهشگر مهمان اوپن ایآی، آشکارسازها میتواند به اشتباه برخی از متنهای نوشتهشده توسط انسان را بهعنوان متن نوشتهشده توسط هوش مصنوعی طبقهبندی کنند.
بهگفتهی اوپن ایآی، آخرین ابزار آنها در آزمایشها به اشتباه در ۹ درصد از موارد متن نوشتهشده به دست انسان را بهعنوان متن نوشتهشده توسط هوش مصنوعی برچسبگذاری کرد و تنها ۲۶ درصد از متون نوشتهشده توسط هوش مصنوعی را بهدرستی شناسایی کرد. بهگفتهی آرونسون، قبل از اینکه بتوانیم صرفاً بر اساس آزمایش آشکارساز دانشجویان را متهم به پنهانکردن استفاده از هوش مصنوعی کنیم، ممکن است به شواهد بیشتری نیاز باشد.
ایده دیگر آن است که محتوای هوش مصنوعی همراه با واترمارک خاص خودش تولید شود. نوامبر گذشته آرونسون اعلام کرد که او و اوپن ایآی درحال کار روی روشی برای واترمارک کردن خروجی ChatGPT هستند. این ابزار هنوز منتشر نشده است، اما پیشچاپ ۲۴ ژانویه توسط تیمی به سرپرستی تام گلدشتاین، دانشمند کامپیوتر دانشگاه مریلند در کالج پارک راهی برای ایجاد واترمارک پیشنهاد کرد. ایده این است که در لحظات خاصی که مدل درحال تولید خروجی خود است، از مولدهای اعداد تصادفی استفاده کند تا فهرستی از کلمات جایگزین قابل قبول ایجاد شود که مدل مجبور شود از بین آنها انتخاب کند. این امر آثاری از کلمات انتخابشده را در متن نهایی باقی میگذارد که میتواند ازنظر آماری تشخیص داده شود، اما برای خواننده آشکار نیست. ویرایش میتواند این اثر را از بین ببرد، اما گلدشتاین میگوید ویرایش باید بیش از نیمی از واژهها را تغییر دهد.
آرونسون اشاره میکند که مزیت واترمارک کردن این است که بهندرت نتایج مثبت کاذب ایجاد میکند. اگر واترمارک وجود داشته باشد، متن احتمالاً با هوش مصنوعی تولید شود، بااینحال بهگفتهی او باز هم خطاناپذیر نخواهد بود. او میگوید: «اگر به اندازه کافی مصمم باشید، مطمئناً راههایی برای شکست تقریباً هر طرح واترمارکی وجود دارد. ابزارهای تشخیص و واترمارک کردن، استفاده فریبکارانه از هوش مصنوعی را سختتر میکنند، اما استفاده فریبکارانه از آن را غیرممکن نمیکنند.»
در همین حین، سازندگان LLM مشغول کار روی چتباتهای پیچیدهتری روی مجموعه دادههای بزرگتری مانند ابزارهایی هستند که بهطور خاص برای اهداف دانشگاهی یا پزشکی استفاده میشوند (اوپن ایآی انتظار میرود که GPT-4 را امسال منتشر کند).
در اواخر دسامبر، گوگل و دیپمایند پیشچاپی را درمورد یک مدل زبانی ویژهای به نام Med-PaLM منتشر کردند. این ابزار تقریباً به همان خوبی که یک پزشک معمولی میتوانست به پاسخ دهد، میتوانست به برخی از پرسشهای پزشکی پاسخ دهد. اگرچه هنوز کاستیهایی داشت و کاملاً قابل اطمینان نبود.
اریک توپول، مدیر مؤسسه تحقیقاتی اسکریپس در سندیگو کالیفرنیا میگوید امیدوار است در آینده هوش مصنوعیای که شامل LLM میشود، حتی با مقایسه تصاویر اسکن بدن با متون دانشگاهی به تشخیص سرطان و درک بیماریها کمک کند. اما او تأکید میکند که این امر به نظارت دقیق متخصصان نیاز دارد.
علم کامپیوتر پشت هوش مصنوعی مولد با چنان سرعتی درحال پیشرفت است که هر ماه نوآوریهایی ظاهر میشود. نحوه استفاده پژوهشگران از آنها، آینده ما را تعیین خواهد کرد. توپول میگوید: «این فناوری در آغاز کار خود قرار دارد و تحولات عظیمی را در پی خواهد داشت.»
نمونه پیشنویس مقاله اصلاحشده توسط هوش مصنوعی را در ادامه میبینید.