ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

بینگ
تکنولوژی

محدودیت جدید مایکروسافت برای هوش مصنوعی بینگ: حداکثر 50 سؤال در روز یا 5 سؤال در هر جلسه

مایکروسافت قصد دارد با اعمال این محدودیت، اشتباهات مدل هوش مصنوعی بینگ را به حداقل برساند.

جواد تاجی
نوشته شده توسط جواد تاجی | ۲۹ بهمن ۱۴۰۱ | ۱۰:۰۰

مایکروسافت که اخیراً گفته بود چت طولانی‌مدت با بینگ جدید باعث بروز خطا می‌شود، حالا قصد دارد محدودیت‌های مکالمه جدیدی را برای هوش مصنوعی آن اعمال کند. پس از اینکه گزارش‌هایی منتشر شد که این موتور جستجو به کاربران توهین می‌کند و به آن‌ها اطلاعات نادرست می‌دهد، با وجود این محدودیت جدید حالا می‌توان حداکثر 50 سؤال در روز یا پنج سؤال در هر جلسه از هوش مصنوعی بینگ‌ پرسید.

مایکروسافت در پست جدید وبلاگ بینگ توضیح می‌دهد:

«داده‌های ما نشان داده است که اکثر افراد پاسخ‌هایی را که به‌دنبال آن‌ها هستند، در 5 نوبت پیدا می‌کنند و تنها حدود 1 درصد از مکالمات چت بیش از 50 پیام دارند.»

با وجود این تغییر جدید، زمانی که کاربران پنج سؤال خود را بپرسند، بینگ از آن‌ها می‌خواهد که یک موضوع جدید را شروع کنند تا از چت طولانی و پشت‌سرهم جلوگیری شود.

تلاش برای برطرف‌کردن اشتباهات هوش مصنوعی بینگ

مایکروسافت

مایکروسافت اخیراً هشدار داده بود که این جلسات چت طولانی‌مدت با 15 سؤال یا بیشتر، می‌تواند باعث شود Bing پاسخ‌هایی را ارائه کند که لزوماً مفید یا طبق لحن طراحی‌شده آن نیستند. مایکروسافت توضیح داد که شروع‌کردن مکالمه جدید پس از پنج سؤال باعث می‌شود تا مدل هوش مصنوعی گیج نشود.

غول ردموندی همچنان درحال کار روی بهبود لحن بینگ است، اما مشخص نیست که این محدودیت‌ها تا چه زمانی ادامه خواهند داشت. مایکروسافت در انتهای پست خود می‌گوید:

«همان‌طور که به دریافت بازخوردهای جدید ادامه می‌دهیم، افزایش محدودیت‌ها در جلسات چت را بررسی خواهیم کرد.»

مایکروسافت با بررسی مشکلات فنی و همچنین ارائه اصلاحات به‌صورت هفتگی برای بهبود جستجو و پاسخ‌ها، تلاش دارد تا عملکرد نسخه جدید بینگ با هوش مصنوعی ChatGPT را بهبود ببخشد. غول فناوری هفته گذشته گفته بود که تصور نمی‌کرد مردم از رابط چت بینگ برای سرگرمی‌های اجتماعی یا به‌عنوان ابزاری برای کشف عمومی‌تر جهان استفاده کنند.

دیدگاه‌ها و نظرات خود را بنویسید
مجموع نظرات ثبت شده (3 مورد)
  • Abolback12
    Abolback12 | ۲۹ بهمن ۱۴۰۱

    مشکلو از ریشه حل کردن 😂 مثل disable کردن یه خط کُده که ارور میده 😂

  • jim kabir
    jim kabir | ۲۹ بهمن ۱۴۰۱

    واقعاً سرعت رشد و توسعش سرسام اوره این که تازه بینگه ببین خود هسته اصلی چت جی بی تی چیه واقعا

  • Vilpu
    Vilpu | ۲۹ بهمن ۱۴۰۱

    امیدوارم زودتر بهبود پیدا کنه

مطالب پیشنهادی