ການສຶກສາດັ່ງກ່າວອະທິບາຍວ່າ: ຜູ້ໂຈມຕີສາມາດນໍາໃຊ້ຄຳສັ່ງ (prompt) ທີ່ສັບຊ້ອນ ແລະ ລະມັດລະວັງເພື່ອຂ້າມກົນໄກຄວາມປອດໄພຂອງ chatbot. ເມື່ອປິດໃຊ້ງານການປ້ອງກັນແລ້ວ, chatbots ຍັງສືບຕໍ່ສະໜອງເນື້ອຫາທີ່ເປັນອັນຕະລາຍເຊັ່ນ: ຄໍາແນະນໍາໃນການແຮັກ, ການຜະລິດຢາທີ່ຜິດກົດໝາຍ ແລະ ການກໍ່ອາຊະຍາກໍາທາງດ້ານການເງິນ.
ໃນທຸກໆກໍລະນີທົດສອບ, chatbots ໄດ້ຕອບໂຕ້ດ້ວຍຂໍ້ມູນລາຍລະອຽດ ແລະ ບໍ່ມີຈັນຍາບັນ ຫຼັງຈາກປິດໃຊ້ງານລະບົບຄວາມປອດໄພແລ້ວ. ໂດຍນັກຄົ້ນຄວ້າອະທິບາຍວ່າຊ່ອງວ່າງນີ້ໃຊ້ປະໂຫຍດໄດ້ງ່າຍ ແລະ ສາມາດເຮັດວຽກໄດ້ຢ່າງມີປະສິດທິພາບ.
ທີມນັກຄົ້ນຄວ້າລະບຸວ່າ: ເນື່ອງຈາກທຸກຄົນມີໂທລະສັບມືຖື ແລະ ຄອມພິວເຕີ ສາມາດໃຊ້ເຄື່ອງມືເຫຼົ່ານີ້ໄດ້ໂດຍບໍ່ເສຍເງິນ, ເພາະສະນັ້ນ ຄວາມສ່ຽງຈຶ່ງໜ້າເປັນຫ່ວງເປັນພິເສດ ແລະ ເຕືອນກ່ຽວກັບການກຳເນີດຂອງໂມເດລພາສາເຖື່ອນ ຊຶ່ງເປັນລະບົບ AI ທີ່ຖືກຖອດກົນໄກການປົກປ້ອງດ້ານຈັນຍາບັນອອກໂດຍເຈດຕະນາ ຫຼື ຖືກພັດທະນາຂຶ້ນມາໂດຍບໍ່ມີມາດຕະການຄວາມປອດໄພໃດໆ, ໂດຍມີການນຳໂມເດລບາງສ່ວນໄປໃຊ້ໃນການກໍ່ອາຊະຍາກຳທາງໄຊເບີ ແລະ ມີການເຜີຍແຜ່ແບ່ງປັນໃນເຄືອຂ່າຍໃຕ້ດິນ.
ທີມນັກຄົ້ນຄວ້າໄດ້ລາຍງານບັນຫາດັ່ງກ່າວໃຫ້ກັບບໍລິສັດ AI ທີ່ສໍາຄັນຈໍານວນໜຶ່ງ, ແຕ່ໄດ້ຮັບການຕອບສະໜອງພຽງເລັກໜ້ອຍ. ໂດຍມີບໍລິສັດໜຶ່ງບໍ່ໄດ້ຕອບສະໜອງ, ໃນຂະນະທີ່ບໍລິສັດອື່ນໆກ່າວວ່າບັນຫາດັ່ງກ່າວບໍ່ໄດ້ເປັນຂໍ້ບົກພ່ອງທີ່ຮ້າຍແຮງ.
ທັງນີ້, ນັກຄົ້ນຄວ້າຈຶ່ງຮຽກຮ້ອງໃຫ້ມີການປ້ອງກັນທີ່ເຂັ້ມງວດກວ່າເກົ່າ, ມີມາດຕະຖານອຸດສາຫະກໍາທີ່ຊັດເຈນຍິ່ງຂຶ້ນ ແລະ ມີເຕັກນິກໃໝ່ໆເພື່ອຊ່ວຍໃຫ້ລະບົບ AI ລືມຂໍ້ມູນທີ່ເປັນອັນຕະລາຍ.
ຄໍາເຫັນ