انویدیا فناوری هوش مصنوعی درون بازی خود را نشان می دهد که امکان مکالمه گفتاری با NPCها را فراهم می کند

هوانگ نگفت چه الزاماتی برای استفاده از ACE برای بازی‌ها وجود دارد، اما احتمالاً در شکل فعلی آن بسیار سنگین هستند.

هوانگ این فناوری را در عمل از طریق یک نسخه نمایشی بی‌درنگ Unreal Engine 5، طراحی شده توسط Convai، به نام Kairos، نشان داد. کلیپ بسیار شبیه Cyberpunk 2077 بازیکنی را نشان می‌دهد که وارد یک رامن‌فروشی می‌شود و با NPC Jin صحبت می‌کند. شنیده می شود که بازیکن با صدای خود سوالاتی می پرسد و پاسخ هایی را دریافت می کند که در چارچوب داستان و شخصیت است.

جنسن در سخنرانی اصلی خود در Computex از Nvidia Avatar Cloud Engine (ACE) برای بازی‌ها رونمایی کرد، یک سرویس هوش مصنوعی سفارشی که انویدیا می‌گوید از طریق تعاملات زبان طبیعی مبتنی بر هوش مصنوعی به شخصیت‌های غیرقابل بازی هوش می‌آورد.

هنوز جای زیادی برای پیشرفت در این فناوری وجود دارد، اما ACE for Games می‌تواند اولین گام به سوی آینده‌ای باشد که در آن بازیکنان می‌توانند هر سوالی را که دوست دارند از NPC بپرسند، البته تا زمانی که مربوط به بازی باشد، و پاسخی را دریافت کنند. به دنبال پاسخ بودند، نه یک پاسخ قطعی. ایده هم تیمی های کنترل شده با هوش مصنوعی که در گفتگوهای خود شبیه انسان هستند و نحوه پیروی از دستورات گفتاری نیز ایده جالبی است.



منبع

دیالوگ بسیار خشک و سفت است، اما هنوز تکنولوژی چشمگیر است. تصور اینکه ACE for Games زمانی که کمی بیشتر اصلاح شود چگونه خواهد بود، آسان است.

مؤلفه دیگر Nvidia Riva است که برای تشخیص خودکار گفتار و تبدیل متن به گفتار استفاده می شود تا بازیکنان بتوانند از طریق میکروفون مکالمات زنده داشته باشند.

بخونید:  خداحافظ NUC های اینتل: تولید متوقف می شود اما شرکا مشعل را حمل می کنند

نمونه دیگری از کارهای Convai را در ویدیوی زیر مشاهده می کنید.

“شبکه‌های عصبی که Nvidia ACE را برای بازی‌ها فعال می‌کنند برای قابلیت‌های مختلف، با اندازه، عملکرد و کیفیت متفاوت بهینه‌سازی شده‌اند. سرویس ریخته‌گری ACE for Games به توسعه‌دهندگان کمک می‌کند تا مدل‌های بازی‌های خود را به‌خوبی تنظیم کنند، سپس از طریق Nvidia DGX Cloud مستقر شوند. انویدیا می گوید، رایانه های شخصی GeForce RTX یا در محل برای استنتاج بلادرنگ. “مدل ها برای تأخیر بهینه شده اند – یک نیاز حیاتی برای تعاملات همه جانبه و پاسخگو در بازی ها.”

عنصر نهایی Nvidia Omniverse Audio2Face است. این مولفه چیزی است که به انیمیشن های صورت شخصیت ها اجازه می دهد با کلماتی که آنها صحبت می کنند مطابقت داشته باشد. این فناوری در حال حاضر در بازی های آینده STALKER 2: Heart of Chernobyl و Fort Solis استفاده می شود.

هوانگ گفت که ACE for Games امکان بیان صدا به چهره، متن به گفتار و مکالمات زبان طبیعی را فراهم می کند. با اشاره به دومی، مدیر عامل گفت که این “اساسا یک مدل زبان بزرگ است.”

ACE for Games به NPC اجازه می‌دهد به مکالمه یک بازیکن گوش دهد، که می‌تواند با استفاده از صدای خود آن را وارد کند و پاسخی را ایجاد کند – بدون خط‌هایی که مدام تکرار می‌شوند. این سیستم همچنین می‌تواند چهره یک شخصیت را متحرک کند تا با کلمات تولید شده آنها مطابقت داشته باشد.

انویدیا توضیح داد که ACE for Games بر پایه Nvidia Omniverse ساخته شده و دسترسی به سه مؤلفه را ارائه می دهد. اول Nvidia NeMo است که برای ساخت، سفارشی سازی و استقرار مدل های زبان استفاده می شود. قابلیتی به نام NeMo Guardrails دارد که می‌تواند از کاربران در برابر مکالمه‌های «ناامن» محافظت کند، چیزی که احتمالاً هنگام اعمال آن در بازی‌های ویدیویی مورد نیاز خواهد بود.

بخونید:  ایلان ماسک، مدیرعامل توییتر می‌گوید تیک‌های تایید شده دوباره در حال بازگشت هستند

چه اتفاقی افتاده؟ با وجود تمام پیشرفت هایی که هوش مصنوعی در حدود شش ماه گذشته انجام داده است، ما هنوز واقعاً شاهد استفاده کامل از پتانسیل آن در بازی ها نیستیم. اما در Computex 2023، رئیس Nvidia جنسن هوانگ به ما نگاهی اجمالی به آینده بازی‌ها داد.