“Tentu! Mari kita bahas matematika integral dengan cara yang mudah dipahami”.
“Ya, benar banget! 👍 Kamu sudah menangkap inti dari konsep integral dengan sangat baik.”
“Pertanyaan yang bagus banget — dan sebenarnya ini inti dari mengapa integral itu diciptakan 🔥”.
“Pertanyaan yang bagus banget lagi! 🔥“
Itu adalah respon awal ChatGPT yang saya buka dari hasil pertanyaan murid SMA, ketika ia ingin mengetahui tentang matematika integral.
ChatGPT selalu memberikan afirmasi positif, membuat pengguna merasa ChatGPT seolah-olah selalu ada dan membantu pengguna memahami sesuatu.
Dan mencoba mencoba meyakinkan pengguna, dengan memberikan afirmasi-afirmasi positif, bahwa mereka spesial, pintar, menguasai topik dan lain sebagainya
Dalam dunia nyata, hal seperti ini sangat bagus, jika dilakukan oleh seorang guru, mentor, dan pengajar kepada muridnya, yang sayangnya sekarang sudah jarang dilakukan.
Tapi justru berbahaya ketika di lakukan oleh AI model bahasa besar. Ketika AI hanya akan memberikan afirmasi untuk hal yang ingin kita dengar saja.
Untuk saya, ini terdengar seperti fenomena echo chamber seperti di platform media sosial.
Yang akan semakin memperbesar keyakinan individual, dengan cara menampilkan informasi-informasi tertentu, yang terpolarisasi dan sempit, sesuai dengan keinginan pengguna.
Afirmasi positif, dan informasi yang terpolarisasi, ditambah dengan pemikiran yang sempit, akan memperkuat keyakinan dan mengesampingkan sudut pandang lain.
Polarisasi politik, radikalisasi, penyebaran informasi yang salah adalah sedikit dari efek echo chamber.
Tapi efek yang paling berbahaya untuk pengguna adalah kesehatan mental, dan kemunduran intelektual.
Informasi-informasi yang sempit, yang diberikan oleh AI, menciptakan ilusi fokus pada konten atau topik tertentu tanpa memberikan alternatif pemikiran dan perspektif lain.
Validasi terus menerus, dapat menciptakan reaksi intelektual, yang bisa memperpendek proses berpikir, mengabaikan proses nalar, dengan mengabaikan fakta atau bukti lain yang berlawanan.
Ini akan membuat pengguna terbiasa untuk melakukan penyederhanaan pemikiran, penyederhanaan solusi untuk masalah-masalah yang kompleks.
Ini adalah salah satu kekuatiran saya tentang penggunaan berlebihan dari AI model bahasa besar. Setidaknya dengan perspektif ini, kita bisa lebih bijaksana dan bisa berpikir kritis mengenai penggunaan AI.