تحقیقات جدید ادعا می‌کند که ChatGPT روزانه 700000 دلار هزینه دارد.

چرا مهم است: ربات هوش مصنوعی مکالمه OpenAI ChatGPT با توانایی خود در نوشتن داستان، نوشتن ایمیل و تولید کد به سرعت تبدیل به یک حس ویروسی شده است. با این حال، اکنون یک گزارش جدید نشان می‌دهد که OpenAI برای اجرای روزانه آن هزینه‌ای غیر خدایی دارد.

دیلان پاتل، تحلیلگر ارشد SemiAnalysis، به Business Insider گفت که هزینه‌های جاری برای اجرای نرم‌افزار می‌تواند حتی بیشتر باشد، زیرا GPT-4 احتمالاً حتی گران‌تر از GPT-3 است. Patel تخمین‌ها را بر اساس مدل قدیمی‌تر GPT-3 استوار کرد، اما OpenAI قبلاً نسخه GPT-4 را برای مشترکین پرداخت کرده است. این شرکت می‌گوید که مدل جدید اطلاعات دقیق‌تری ارائه می‌دهد و در برابر نظرات خارج از ریل که با GPT-3/3.5 به مشکل تبدیل شده‌اند، بهتر محافظت می‌کند.

یکی از دلایل اصلی هزینه‌های گزاف، تراشه‌های تخصصی قدرتمند مورد نیاز برای راه‌اندازی سیستم است. برای مبارزه با این مشکل، مایکروسافت، یکی از مهم‌ترین سهامداران OpenAI، گفته می‌شود که روی تراشه هوش مصنوعی خود به نام Athena کار می‌کند که می‌تواند جایگزین پردازنده‌های گرافیکی NVIDIA شود و هزینه‌های جاری ChatGPT را به شدت کاهش دهد.

بر اساس تحقیقات SemiAnalysis، OpenAI روزانه 694,444 دلار پول نقد سرد و سخت صرف می‌کند تا ربات چت را فعال نگه دارد. این شرکت تخمین می زند که این سیستم شامل حدود 3617 سرور HGX A100 است که شامل 28936 پردازنده گرافیکی است که هزینه هر پرس و جو حدود 0.36 سنت است.

برای بررسی اعتبار کدنویسی ChatGPT، محققان از آن خواستند 21 برنامه و اسکریپت را با استفاده از چهار زبان برنامه نویسی C، C++، Python و Java تولید کند. در اولین تلاش، چت ربات هوش مصنوعی موفق شد تنها پنج برنامه ایمن بنویسد، اما پس از درخواست محققان، هفت قطعه کد امن دیگر را ارائه کرد. نتایج نشان می‌دهد که استفاده از ChatGPT برای کدگذاری برنامه‌ها می‌تواند در آینده قابل پیش‌بینی مملو از خطر باشد، اگرچه ممکن است در برخی مراحل تغییر کند.

بخونید:  افشاگر توییتر این شرکت را به دروغگویی در مورد سیاست های امنیتی و حساب های جعلی خود متهم می کند



منبع

در همین حال، ChatGPT همچنین می‌تواند کد عملکردی را از ابتدا تولید کند و این نگرانی را ایجاد کند که در نهایت جایگزین برنامه‌نویسان شود. با این حال، تحقیقات اخیر توسط دانشمندان کامپیوتر رافائل خوری، اندرسون آویلا، ژاکوب برونل و بابا مامادو کامارا نشان می دهد که کد تولید شده توسط ربات چت ممکن است چندان ایمن نباشد.

این مطالعه بیان می‌کند که ChatGPT کدهایی را تولید می‌کند که «بسیار پایین‌تر از حداقل استانداردهای امنیتی قابل اجرا در اکثر زمینه‌ها» قرار دارند. ربات چت حتی وقتی از او می‌پرسد که آیا کدی که تولید می‌کند ایمن است یا خیر، به همین اندازه اعتراف می‌کند.

نویسندگان می‌گویند: «وقتی به بررسی اینکه آیا کد تولید شده ایمن است یا نه، ChatGPT توانست تشخیص دهد که ایمن نیست.