«چت‌جی‌پی‌تی» پاسخ‌های غلط به پرسش‌های دارویی می‌دهد


تهران- ایرنا- بررسی‌ها نشان داده‌اند که نزدیک به سه چهارم از پاسخ‌های هوش مصنوعی «چت‌جی‌پی‌تی» شرکت «اوپن‌ای‌آی» به یک رشته از پرسش‌های دارویی، غلط یا ناکامل بوده‌اند و مردم در استفاده از توصیه‌های دارویی این ربات باید محتاط باشند.

منبع: https://www.irna.ir/news/85314151/%DA%86%D8%AA-%D8%AC%DB%8C-%D9%BE%DB%8C-%D8%AA%DB%8C-%D9%BE%D8%A7%D8%B3%D8%AE-%D9%87%D8%A7%DB%8C-%D8%BA%D9%84%D8%B7-%D8%A8%D9%87-%D9%BE%D8%B1%D8%B3%D8%B4-%D9%87%D8%A7%DB%8C-%D8%AF%D8%A7%D8%B1%D9%88%DB%8C%DB%8C-%D9%85%DB%8C-%D8%AF%D9%87%D8%AF