Microsoft Batasi Pertanyaan ke Bing ChatGPT Akibat Sistem AI Tidak Cerdas

Kamis, 23 Februari 2023 - 07:08 WIB
loading...
Microsoft Batasi Pertanyaan ke Bing ChatGPT Akibat Sistem AI Tidak Cerdas
Sistem AI milik Bing terdeteksi bingung dan berusaha mencocokkan percakapan yang sesuai dengan nada dan intensitas pesan pengguna.. FOTO/ CNET
A A A
TEXAS - Microsoft membatasi jumlah interaksi yang menggunakan sistem artificial intelligence (AI) Bing ChatGPT. Hal ini karena adanya berbagai masalah yang mengkhawatirkan sistem AI atau Kecedasan Buatan.



Seperti yang dilansir dari laman The Independent Kamis (23/2/2023), dalam beberapa hari terakhir, pengguna mengetahui bahwa sistem baru Bing ini justru menyerang, menghina, dan berbohong kepada pengguna.

Beberapa orang bahkan berpendapat bahwa sistem tersebut tampaknya sudah sadar dan mengekspresikan perasaannya sendiri.

Akan tetapi, bisa jadi sistem Bing ini menjadi bingung dan berusaha mencocokkan percakapan yang sesuai dengan nada dan intensitas pesan pengguna.

Sekarang Microsoft juga melaporkan bahwa sistem Bing baru ini tampak bingung ketika pengguna bertanya atau berbicara terlalu lama.

Microsoft sekarang membatasi penggunaan Bing hingga 50 obrolan per hari dan lima obrolan per sesi dengan giliran obrolan menjadi satu pertanyaan dan satu jawaban.

Sekarang, jika pengguna mencoba berbicara dengan sistem Bing ChatGPT ini lebih dari lima kali, pengguna akan diminta untuk memulai lagi. Di akhir setiap sesi obrolan, pengguna juga akan diminta untuk segera menghapus percakapan lama agar Bing tidak bingung.

Seperti diketahui, awal bulan ini Microsoft memperbarui mesin pencari Bing dengan teknologi yang sama yang mendukung ChatGPT.

Inovasi ini dilakukan untuk memungkinkan penggunaan kecerdasan buatan agar pengguna dapat mengajukan pertanyaan dan mendapatkan jawaban yang lebih tepat dan terperinci.
(wbs)
Baca Berita Terkait Lainnya
Copyright ©2024 SINDOnews.com
All Rights Reserved
read/ rendering in 0.1020 seconds (0.1#10.140)