همه ما با دهه ها داستان علمی تخیلی آموزش دیده ایم تا هوش مصنوعی را تهدیدی برای آینده کاری خود بدانیم. ایده این است: اگر یک ربات هوش مصنوعی بتواند کار خود را به خوبی انسان انجام دهد – ارزان تر و با بی نظمی بین فردی کمتر – چه کسی به انسان نیاز دارد؟
سایت خبری فناوری CNET سعی کرد به این سوال، بی سر و صدا و حتی مخفیانه پاسخ دهد. برای ماهها، این سایت از یک موتور هوش مصنوعی برای نوشتن مقاله برای صفحه مالی شخصی CNET Money استفاده میکرد. این مقالات به موضوعاتی مانند “بهره مرکب چیست؟” و «وقتی چک را پس میزنید چه اتفاقی میافتد؟»
در نگاه اول و برای تازه کارها، مقالات قانع کننده و آموزنده به نظر می رسید. CNET این عمل را تا اوایل این ماه ادامه داد، زمانی که توسط وب سایت Futurism منتشر شد.
بررسی دقیق کار تولید شده توسط هوش مصنوعی CNET باعث می شود که کمتر شبیه یک تولید کننده متن پیچیده و بیشتر شبیه یک دستگاه سرقت ادبی خودکار به نظر برسد که به طور اتفاقی کارهای سرقت شده را بیرون می کشد.
– جان کریستین، آینده پژوهی
اما همانطور که Futurism تعیین کرد، مقالات رباتنویسی محدودیتهای عمدهای دارند. برای یک چیز، بسیاری از آنها با اشتباهات سر و کار دارند. برای دیگری، بسیاری مملو از سرقت ادبی هستند – در برخی موارد از خود CNET یا وب سایت های خواهرش.
جان کریستین از فوتوریسم این مشکل را به صراحت در مقاله ای بیان کرد و اظهار داشت که مشکل هوش مصنوعی مقاله نویسی CNET این است که “این نوعی احمق است.” کریستین مقالهای را دنبال کرد که در آن موارد متعددی از جمله “از کپی کلمه به کلمه گرفته تا ویرایشهای متوسط گرفته تا بازنویسیهای قابل توجه، همه بدون ذکر اعتبار اصلی” را دنبال کرد.
این سطح از رفتار نادرست باعث اخراج یک دانش آموز انسانی یا اخراج یک روزنامه نگار می شود.
قبلاً در مورد محدودیتهای ناشناخته فناوریهای جدید نوشتهایم، بهویژه آنهایی که تقریباً جادویی به نظر میرسند، مانند برنامههای کاربردی هوش مصنوعی.
به نقل از رادنی بروکس، دانشمند و کارآفرین رباتیک و هوش مصنوعی که هفته گذشته در مورد آن نوشتم، «یک صنعت کلبه واقعی در رسانه های اجتماعی با دو طرف وجود دارد. یکی از اجراهای فوقالعاده این سیستمها، شاید گیلاس چیده شده، میتابد و دیگری نشان میدهد که چقدر در کارهای بسیار ساده، باز هم گیلاس چیده شده، ناتوان هستند. مشکل این است که به عنوان یک کاربر از قبل نمیدانید قرار است چه چیزی به دست آورید.”
این ما را به ربات مقاله نویسی CNET برمی گرداند. CNET برنامه هوش مصنوعی خاصی را که استفاده می کرد شناسایی نکرده است، اگرچه زمان بندی نشان می دهد که ChatGPT، تولید کننده زبان هوش مصنوعی نیست که به دلیل توانایی ظاهری آن در تولید نوشتاری، سر و صدای زیادی را در بین فناوران و نگرانی های معلمان ایجاد کرده است. آثاری که تشخیص آنها به عنوان غیرانسانی دشوار است.
CNET سهم هوش مصنوعی در مقالات خود را به ویژه مشهود نکرد و فقط یک خط با چاپ کوچک به آن اضافه کرد: “این مقاله توسط یک موتور هوش مصنوعی کمک شد و توسط کارکنان تحریریه ما بررسی، بررسی و ویرایش شد.” بیش از 70 مقاله به “CNET Money Staff” نسبت داده شد. از زمان افشای Futurism، خط فرعی به سادگی به “CNET Money” تغییر یافته است.
هفته گذشته، طبق Verge، مدیران CNET به کارکنان گفتند که سایت انتشار مطالب تولید شده توسط هوش مصنوعی را فعلا متوقف خواهد کرد.
همانطور که مسیحیان فوتوریسم تأسیس کردند، اشتباهات در مقالات این ربات از تعاریف نادرست اساسی از اصطلاحات مالی تا ساده سازی های بی دلیل متغیر بود. در مقاله در مورد بهره مرکب، ربات CNET در ابتدا نوشت: “اگر 10000 دلار به حساب پس انداز واریز کنید که سالانه 3٪ سود مرکب دریافت می کند، در پایان سال اول 10300 دلار درآمد خواهید داشت.”
این اشتباه است – درآمد سالانه فقط 300 دلار خواهد بود. از آن زمان این مقاله به این صورت تصحیح شد که “شما 300 دلار درآمد خواهید داشت که با اضافه شدن به مبلغ اصلی، در پایان سال اول 10300 دلار خواهید داشت.”
این ربات همچنین در ابتدا پرداخت سود وام خودروی 25000 دلاری با بهره 4 درصد را به عنوان “1000 دلار ثابت … در سال” توصیف کرد. این پرداختهای مربوط به وامهای خودرو، مانند وامهای مسکن، ثابت است – سود فقط از مانده مانده دریافت میشود که با پرداختها کاهش مییابد. حتی در وام یک ساله خودرو با 4 درصد، بهره تنها به 937 دلار خواهد رسید. برای وام های بلندمدت، کل سود پرداختی هر سال کاهش می یابد.
CNET آن را نیز به همراه پنج خطای دیگر در همان مقاله تصحیح کرد. همه را کنار هم بگذارید و ادعای وب سایت مبنی بر اینکه ربات هوش مصنوعی آن “توسط کارکنان تحریریه ما بررسی و ویرایش می شود” کمی نازک به نظر می رسد.
سرقت ادبی ربات چشمگیرتر است و سرنخ مهمی از نحوه عملکرد برنامه ارائه می دهد. کریستین دریافت که به نظر می رسد ربات متنی را از منابعی مانند فوربس، تراز و اینوستوپدیا تکرار کرده است، که همگی همان حوزه مشاوره مالی شخصی را اشغال می کنند که CNET Money را اشغال می کند.
در آن موارد، ربات از روشهای پنهانکاری مشابهی مانند سرقت ادبی انسانی استفاده میکرد، مانند بازنویسی جزئی و تعویض کلمات. حداقل در یک مورد، این ربات از Bankrate، یک نشریه خواهر CNET، سرقت ادبی کرد.
هیچکدام از اینها بهویژه شگفتانگیز نیست، زیرا یکی از کلیدهای عملکرد رباتهای زبان، دسترسی آنها به حجم عظیمی از نثر و منظومه ساختهشده توسط انسان است. آنها ممکن است در یافتن الگوهایی در منبع منبع خوب باشند که بتوانند آن را تکرار کنند، اما در این مرحله از توسعه هوش مصنوعی آنها همچنان در حال انتخاب مغز انسان هستند.
به نظر می رسد انسجام و هماهنگی چشمگیر خروجی این برنامه ها، تا ChatGPT و از جمله ChatGPT، بیشتر به توانایی آنها در انتخاب مواد خام تولید شده توسط انسان مربوط می شود تا هر توانایی برای توسعه مفاهیم جدید و بیان آنها.
کریستین نوشت: «در واقع، «بررسی دقیق کار تولید شده توسط هوش مصنوعی CNET باعث میشود که کمتر شبیه یک تولیدکننده متن پیچیده و بیشتر شبیه یک دستگاه سرقت ادبی خودکار به نظر برسد،» کریستین نوشت.
تعیین اینکه کجای زنجیره بین عدم انسجام تولید شده توسط ربات و بیان خلاقانه واقعی قرار داریم، دشوار است. جف شاتن، استاد دانشگاه واشنگتن و لی، در مقالهای در سپتامبر نوشت که پیچیدهترین ربات زبان در آن زمان، معروف به GPT-3، محدودیتهای آشکاری داشت.
او نوشت: «این کار بر سر کارهای پیچیده نوشتن اتفاق می افتد. «این نمی تواند یک رمان یا حتی یک داستان کوتاه مناسب بسازد. تلاش های آن برای نگارش علمی … خنده آور است. اما چقدر قبل از این قابلیت وجود دارد؟ شش ماه پیش، GPT-3 با پرس و جوهای ابتدایی دست و پنجه نرم کرد، و امروز می تواند یک پست وبلاگ منطقی بنویسد که در مورد «روش هایی که یک کارمند می تواند از یک رئیس بی میل ترفیع بگیرد» بحث می کند.
این احتمال وجود دارد که برای کسانی که نیاز به قضاوت در مورد کارهای مکتوب دارند، مانند معلمان، تشخیص مواد تولید شده توسط هوش مصنوعی از خروجی های انسانی دشوارتر باشد. یکی از استادان اخیراً گزارش داد که دانشجویی را گرفتار کرد که مقالهای را به روش قدیمی ارسال میکرد – خیلی خوب بود.
با گذشت زمان، سردرگمی در مورد اینکه آیا چیزی توسط ربات تولید شده است یا توسط انسان ممکن است به تواناییهای ربات بستگی نداشته باشد، بلکه به تواناییهای انسانهای مسئول بستگی دارد.
منبع: spring-news.ir