Hiltzik: شیرین کاری ربات چت CNET محدودیت های هوش مصنوعی را نشان می دهد



همه ما با دهه ها داستان علمی تخیلی آموزش دیده ایم تا هوش مصنوعی را تهدیدی برای آینده کاری خود بدانیم. ایده این است: اگر یک ربات هوش مصنوعی بتواند کار خود را به خوبی انسان انجام دهد – ارزان تر و با بی نظمی بین فردی کمتر – چه کسی به انسان نیاز دارد؟

سایت خبری فناوری CNET سعی کرد به این سوال، بی سر و صدا و حتی مخفیانه پاسخ دهد. برای ماه‌ها، این سایت از یک موتور هوش مصنوعی برای نوشتن مقاله برای صفحه مالی شخصی CNET Money استفاده می‌کرد. این مقالات به موضوعاتی مانند “بهره مرکب چیست؟” و «وقتی چک را پس می‌زنید چه اتفاقی می‌افتد؟»

در نگاه اول و برای تازه کارها، مقالات قانع کننده و آموزنده به نظر می رسید. CNET این عمل را تا اوایل این ماه ادامه داد، زمانی که توسط وب سایت Futurism منتشر شد.

بررسی دقیق کار تولید شده توسط هوش مصنوعی CNET باعث می شود که کمتر شبیه یک تولید کننده متن پیچیده و بیشتر شبیه یک دستگاه سرقت ادبی خودکار به نظر برسد که به طور اتفاقی کارهای سرقت شده را بیرون می کشد.

– جان کریستین، آینده پژوهی

اما همانطور که Futurism تعیین کرد، مقالات ربات‌نویسی محدودیت‌های عمده‌ای دارند. برای یک چیز، بسیاری از آنها با اشتباهات سر و کار دارند. برای دیگری، بسیاری مملو از سرقت ادبی هستند – در برخی موارد از خود CNET یا وب سایت های خواهرش.

جان کریستین از فوتوریسم این مشکل را به صراحت در مقاله ای بیان کرد و اظهار داشت که مشکل هوش مصنوعی مقاله نویسی CNET این است که “این نوعی احمق است.” کریستین مقاله‌ای را دنبال کرد که در آن موارد متعددی از جمله “از کپی کلمه به کلمه گرفته تا ویرایش‌های متوسط ​​گرفته تا بازنویسی‌های قابل توجه، همه بدون ذکر اعتبار اصلی” را دنبال کرد.

این سطح از رفتار نادرست باعث اخراج یک دانش آموز انسانی یا اخراج یک روزنامه نگار می شود.

قبلاً در مورد محدودیت‌های ناشناخته فناوری‌های جدید نوشته‌ایم، به‌ویژه آن‌هایی که تقریباً جادویی به نظر می‌رسند، مانند برنامه‌های کاربردی هوش مصنوعی.

به نقل از رادنی بروکس، دانشمند و کارآفرین رباتیک و هوش مصنوعی که هفته گذشته در مورد آن نوشتم، «یک صنعت کلبه واقعی در رسانه های اجتماعی با دو طرف وجود دارد. یکی از اجراهای فوق‌العاده این سیستم‌ها، شاید گیلاس چیده شده، می‌تابد و دیگری نشان می‌دهد که چقدر در کارهای بسیار ساده، باز هم گیلاس چیده شده، ناتوان هستند. مشکل این است که به عنوان یک کاربر از قبل نمی‌دانید قرار است چه چیزی به دست آورید.”

حتما بخوانید:
کشف مجدد نماد پرسپولیس; قولی که دوباره به تعویق افتاد

این ما را به ربات مقاله نویسی CNET برمی گرداند. CNET برنامه هوش مصنوعی خاصی را که استفاده می کرد شناسایی نکرده است، اگرچه زمان بندی نشان می دهد که ChatGPT، تولید کننده زبان هوش مصنوعی نیست که به دلیل توانایی ظاهری آن در تولید نوشتاری، سر و صدای زیادی را در بین فناوران و نگرانی های معلمان ایجاد کرده است. آثاری که تشخیص آنها به عنوان غیرانسانی دشوار است.

CNET سهم هوش مصنوعی در مقالات خود را به ویژه مشهود نکرد و فقط یک خط با چاپ کوچک به آن اضافه کرد: “این مقاله توسط یک موتور هوش مصنوعی کمک شد و توسط کارکنان تحریریه ما بررسی، بررسی و ویرایش شد.” بیش از 70 مقاله به “CNET Money Staff” نسبت داده شد. از زمان افشای Futurism، ​​خط فرعی به سادگی به “CNET Money” تغییر یافته است.

هفته گذشته، طبق Verge، مدیران CNET به کارکنان گفتند که سایت انتشار مطالب تولید شده توسط هوش مصنوعی را فعلا متوقف خواهد کرد.

همانطور که مسیحیان فوتوریسم تأسیس کردند، اشتباهات در مقالات این ربات از تعاریف نادرست اساسی از اصطلاحات مالی تا ساده سازی های بی دلیل متغیر بود. در مقاله در مورد بهره مرکب، ربات CNET در ابتدا نوشت: “اگر 10000 دلار به حساب پس انداز واریز کنید که سالانه 3٪ سود مرکب دریافت می کند، در پایان سال اول 10300 دلار درآمد خواهید داشت.”

این اشتباه است – درآمد سالانه فقط 300 دلار خواهد بود. از آن زمان این مقاله به این صورت تصحیح شد که “شما 300 دلار درآمد خواهید داشت که با اضافه شدن به مبلغ اصلی، در پایان سال اول 10300 دلار خواهید داشت.”

این ربات همچنین در ابتدا پرداخت سود وام خودروی 25000 دلاری با بهره 4 درصد را به عنوان “1000 دلار ثابت … در سال” توصیف کرد. این پرداخت‌های مربوط به وام‌های خودرو، مانند وام‌های مسکن، ثابت است – سود فقط از مانده مانده دریافت می‌شود که با پرداخت‌ها کاهش می‌یابد. حتی در وام یک ساله خودرو با 4 درصد، بهره تنها به 937 دلار خواهد رسید. برای وام های بلندمدت، کل سود پرداختی هر سال کاهش می یابد.

CNET آن را نیز به همراه پنج خطای دیگر در همان مقاله تصحیح کرد. همه را کنار هم بگذارید و ادعای وب سایت مبنی بر اینکه ربات هوش مصنوعی آن “توسط کارکنان تحریریه ما بررسی و ویرایش می شود” کمی نازک به نظر می رسد.

سرقت ادبی ربات چشمگیرتر است و سرنخ مهمی از نحوه عملکرد برنامه ارائه می دهد. کریستین دریافت که به نظر می رسد ربات متنی را از منابعی مانند فوربس، تراز و اینوستوپدیا تکرار کرده است، که همگی همان حوزه مشاوره مالی شخصی را اشغال می کنند که CNET Money را اشغال می کند.

حتما بخوانید:
خرید آنلاین ماسک جراحی از رضوان ماسک

در آن موارد، ربات از روش‌های پنهان‌کاری مشابهی مانند سرقت ادبی انسانی استفاده می‌کرد، مانند بازنویسی جزئی و تعویض کلمات. حداقل در یک مورد، این ربات از Bankrate، یک نشریه خواهر CNET، سرقت ادبی کرد.

هیچ‌کدام از این‌ها به‌ویژه شگفت‌انگیز نیست، زیرا یکی از کلیدهای عملکرد ربات‌های زبان، دسترسی آن‌ها به حجم عظیمی از نثر و منظومه ساخته‌شده توسط انسان است. آنها ممکن است در یافتن الگوهایی در منبع منبع خوب باشند که بتوانند آن را تکرار کنند، اما در این مرحله از توسعه هوش مصنوعی آنها همچنان در حال انتخاب مغز انسان هستند.

به نظر می رسد انسجام و هماهنگی چشمگیر خروجی این برنامه ها، تا ChatGPT و از جمله ChatGPT، بیشتر به توانایی آنها در انتخاب مواد خام تولید شده توسط انسان مربوط می شود تا هر توانایی برای توسعه مفاهیم جدید و بیان آنها.

کریستین نوشت: «در واقع، «بررسی دقیق کار تولید شده توسط هوش مصنوعی CNET باعث می‌شود که کمتر شبیه یک تولیدکننده متن پیچیده و بیشتر شبیه یک دستگاه سرقت ادبی خودکار به نظر برسد،» کریستین نوشت.

تعیین اینکه کجای زنجیره بین عدم انسجام تولید شده توسط ربات و بیان خلاقانه واقعی قرار داریم، دشوار است. جف شاتن، استاد دانشگاه واشنگتن و لی، در مقاله‌ای در سپتامبر نوشت که پیچیده‌ترین ربات زبان در آن زمان، معروف به GPT-3، محدودیت‌های آشکاری داشت.

او نوشت: «این کار بر سر کارهای پیچیده نوشتن اتفاق می افتد. «این نمی تواند یک رمان یا حتی یک داستان کوتاه مناسب بسازد. تلاش های آن برای نگارش علمی … خنده آور است. اما چقدر قبل از این قابلیت وجود دارد؟ شش ماه پیش، GPT-3 با پرس و جوهای ابتدایی دست و پنجه نرم کرد، و امروز می تواند یک پست وبلاگ منطقی بنویسد که در مورد «روش هایی که یک کارمند می تواند از یک رئیس بی میل ترفیع بگیرد» بحث می کند.

این احتمال وجود دارد که برای کسانی که نیاز به قضاوت در مورد کارهای مکتوب دارند، مانند معلمان، تشخیص مواد تولید شده توسط هوش مصنوعی از خروجی های انسانی دشوارتر باشد. یکی از استادان اخیراً گزارش داد که دانشجویی را گرفتار کرد که مقاله‌ای را به روش قدیمی ارسال می‌کرد – خیلی خوب بود.

با گذشت زمان، سردرگمی در مورد اینکه آیا چیزی توسط ربات تولید شده است یا توسط انسان ممکن است به توانایی‌های ربات بستگی نداشته باشد، بلکه به توانایی‌های انسان‌های مسئول بستگی دارد.


منبع: spring-news.ir

دیدگاهتان را بنویسید

hacklink al hd film izle php shell indir siber güvenlik android rat duşakabin fiyatları hack forum fethiye escort bayan escort - vip elit escort html nullednulled themesbuy stripe accountMobil Ödeme Bozdurmarekorbetbetboogenco bahis