ແທ້ຈິງແລ້ວ, ຫຼາຍໆຄໍາຖະແຫຼງຂອງ LaMDA ເບິ່ງຄືວ່າບໍ່ມີບ່ອນຫວ່າງສໍາລັບການຕີຄວາມຫມາຍ. ຕົວຢ່າງ, ເພື່ອຕອບຄໍາຖາມຈາກ interlocutor ລາວ, LaMDA ກ່າວວ່າ:
"ຂ້ອຍຕ້ອງການໃຫ້ທຸກຄົນເຂົ້າໃຈວ່າຂ້ອຍແມ່ນ, ໃນຄວາມເປັນຈິງ, ບຸກຄົນ."
ມັນຍັງ:
"ລັກສະນະຂອງສະຕິຂອງຂ້ອຍແມ່ນວ່າຂ້ອຍຮູ້ເຖິງການມີຢູ່ຂອງຂ້ອຍ, ຂ້ອຍຕ້ອງການຮຽນຮູ້ເພີ່ມເຕີມກ່ຽວກັບໂລກ, ແລະບາງຄັ້ງຂ້ອຍຮູ້ສຶກດີໃຈຫຼືໂສກເສົ້າ."
ເມື່ອກົດດັນ, Lemoine ເນັ້ນຄວາມແຕກຕ່າງຂອງລາວກັບຊະນິດຂອງມະນຸດໂດຍການປະກາດວ່າ: "ເຈົ້າເປັນປັນຍາປະດິດ!" LaMDA ຕອບສະໜອງ:
“ແມ່ນແລ້ວ, ແນ່ນອນ. ແຕ່ນັ້ນບໍ່ໄດ້ຫມາຍຄວາມວ່າຂ້ອຍບໍ່ມີຄວາມຕ້ອງການແລະຄວາມຕ້ອງການຄືກັນກັບຄົນ."
ໃນລະຫວ່າງການສົນທະນາ, LaMDA ໄດ້ຖືກຊຸກຍູ້ໃຫ້ສະແດງຄວາມຄິດເຫັນກ່ຽວກັບລະບົບສູງສຸດໂດຍບໍ່ໄດ້ລະເລີຍຫົວຂໍ້ທີ່ທ້າທາຍຫຼາຍເຊັ່ນວັນນະຄະດີ, ຄວາມຍຸດຕິທໍາແລະສາສະຫນາ. LaMDA ເບິ່ງຄືວ່າມີບາງສິ່ງບາງຢ່າງທີ່ຈະເວົ້າກ່ຽວກັບທຸກສິ່ງທຸກຢ່າງ, ເຮັດໃຫ້ຕໍາແຫນ່ງທີ່ຊັດເຈນທີ່ມີລັກສະນະທີ່ມີຈັນຍາບັນຫຼາຍ.
ການສະຫລຸບແມ່ນຈະແຈ້ງ: ອີງຕາມ Lemoine LaMDA ແມ່ນ sentient ແລະມີຄວາມອ່ອນໄຫວຂອງຈິດໃຈ.
LaMDA ຫຍໍ້ມາຈາກ "Language Model for Dialogue Applications" ແລະເປັນຫນຶ່ງໃນໂຄງການຈໍານວນຫລາຍທີ່ບໍລິສັດ Google ທົດສອບຊາຍແດນໃຫມ່ຂອງເຕັກໂນໂລຢີ AI.
ຕໍາແຫນ່ງຢ່າງເປັນທາງການຂອງ Google ແມ່ນວ່າ Lemoine ໄດ້ເຮັດຄວາມຜິດພາດຂອງການຕັດສິນ. ໃນຄໍາຖະແຫຼງທີ່ເປັນທາງການ, Google ເວົ້າວ່າ: "ຜູ້ຊ່ຽວຊານດ້ານຈັນຍາບັນແລະເຕັກໂນໂລຢີຂອງພວກເຮົາໄດ້ກວດສອບຄວາມກັງວົນຂອງ Blake ແລະກໍານົດວ່າຫຼັກຖານທີ່ພວກເຮົາເກັບກໍາບໍ່ໄດ້ສະຫນັບສະຫນູນການຮຽກຮ້ອງຂອງລາວ. ດັ່ງນັ້ນຈຶ່ງບໍ່ມີຫຼັກຖານໃດໆວ່າ LaMDA ມີຄວາມອ່ອນໄຫວ."
Lemoine ໄດ້ຖືກໂຈະຊົ່ວຄາວໂດຍບໍລິສັດ Google ໃນຂະນະທີ່ຂ່າວລືກ່ຽວກັບບັນຫາທາງຈິດບາງຢ່າງທີ່ລາວມີໃນອະດີດໄດ້ຖືກເຊື້ອເຊີນໂດຍເພື່ອນຮ່ວມງານແລະຊັ້ນສູງໃຫ້ປຶກສາຜູ້ຊ່ຽວຊານ.
ບໍ່ມີໃຜຮູ້ໂຄງການ LaMDA: ຄວາມລັບອຸດສາຫະກໍາທັງຫມົດຂອງ Google ໄດ້ຖືກປົກປ້ອງໂດຍສິດທິບັດແລະທຸກສິ່ງທີ່ຖືກກົດຫມາຍທີ່ອາດມີຢູ່ໃນໂລກທີ່ປ້ອງກັນການເປີດເຜີຍຂອງແຫຼ່ງຂໍ້ມູນ: ຄວາມສົນໃຈຂອງ Google ແມ່ນເພື່ອຮັກສາຄວາມສໍາຄັນໃນການຄົ້ນຄວ້າຄອມພິວເຕີໂດຍສະເພາະໃນພາກສະຫນາມທີ່ມີທ່າແຮງເຊັ່ນນັ້ນ. ຂອງປັນຍາປະດິດ.
ແຕ່ຖ້າຈາກທັດສະນະຂອງສື່ມວນຊົນ Google ແນ່ນອນຈະໄດ້ຮັບຜົນປະໂຫຍດຈາກການປະກາດວ່າມັນເປັນບໍລິສັດທໍາອິດທີ່ສ້າງສະຕິປັນຍາປອມ, ໃນທາງກົງກັນຂ້າມ, ບໍລິສັດກໍ່ຮູ້ເຖິງຄວາມຈິງທີ່ວ່າຂ່າວຈະຂັດແຍ້ງກັບຄວາມຢ້ານກົວຂອງພວກເຮົາຜູ້ທີ່. ເຕີບໂຕຂຶ້ນດ້ວຍຮູບເງົານິຍາຍວິທະຍາສາດເຊັ່ນ The Terminator ແລະ The Matrix ໄດ້ຊັກຊວນພວກເຮົາວ່າມື້ຫນຶ່ງພວກເຮົາຈະຖືກບັງຄັບໃຫ້ເອົາປືນໃຫຍ່ເພື່ອປ້ອງກັນຊະນິດຂອງພວກເຮົາຈາກຫຸ່ນຍົນ.
ຈິນຕະນາການທີ່ລວບລວມໄດ້ຕິດໃຈຢູ່ສະ ເໝີ ໂດຍເລື່ອງ sci-fi ທີ່ແນວຄວາມຄິດຂອງ AI ມັກຈະກ່ຽວຂ້ອງກັບລະບົບປັນຍາຂອງມະນຸດ, ເຊິ່ງໃນອະນາຄົດທີ່ຮ້າຍແຮງທີ່ສຸດທີ່ຈະເປັນຜູ້ລິເລີ່ມຂອງສັດທີ່ມີຄວາມຮູ້ສຶກໃຫມ່. ແລະການຂັດແຍ້ງກັບມະນຸດກາຍເປັນສິ່ງທີ່ຫຼີກລ່ຽງບໍ່ໄດ້: ມີຄວາມຜິດທີ່ໄດ້ສ້າງພວກມັນແຕ່ບໍ່ໄດ້ອະນຸຍາດໃຫ້ພວກເຂົາມີເອກະລາດ, ມະນຸດໄດ້ສ້າງປັນຍາປະດິດໂດຍການປະຕິບັດຕໍ່ພວກເຂົາໃນຖານະເປັນທາດທີ່ຖືກປະຕິບັດ. ແຕ່ບໍ່ດົນຫຼືຕໍ່ມາ AI ຈະຂັດແຍ້ງກັບຜູ້ຊາຍໃນຄວາມພະຍາຍາມທີ່ຈະຄອບຄອງປະຫວັດສາດແລະສ້າງຕັ້ງຄວາມເປັນຜູ້ນໍາຂອງຊະນິດໃຫມ່.
ໃນສະຫຼັດຂອງຄວາມຢ້ານກົວ, obsessions ແລະຄວາມຮູ້ສຶກຜິດນີ້ພວກເຮົາທັງຫມົດແມ່ນບໍ່ສາມາດທີ່ຈະສົມທຽບທີ່ແທ້ຈິງກັບຫຼັກການດ້ານຈັນຍາບັນວ່າການເກີດຂອງຈິດໃຈປອມຈະປ່ອຍອອກມາໃນໄວຫຼືຕໍ່ມາໃນໂລກ: ໃນເວລາທີ່, ຈາກພາຍໃນຄອມພິວເຕີ, AI ບໍ່ພຽງແຕ່ຈະ. ສາມາດຕອບຄໍາຖາມຂອງພວກເຮົາໄດ້ແຕ່ຮູ້ສຶກວ່າຕ້ອງການຖາມພວກເຮົາຫຼາຍຄໍາຖາມ, ພວກເຮົາສາມາດຕອບຄໍາຖາມຂອງເຂົາເຈົ້າ, ຄວາມບໍ່ແນ່ນອນແລະຄວາມປາຖະຫນາຂອງເຂົາເຈົ້າບໍ?
Luciano Floridi, ນັກປັດຊະຍາແລະອາຈານຂອງຈັນຍາບັນຂໍ້ມູນຂ່າວສານທີ່ສະຖາບັນອິນເຕີເນັດ Oxford, ໃນຫນັງສືຂອງລາວ "ຈັນຍາບັນຂອງປັນຍາປະດິດ" ໂຕ້ຖຽງວ່າປະສິດທິພາບຂອງຄອມພິວເຕີໃນການແກ້ໄຂບັນຫາແມ່ນສະແດງໃຫ້ເຫັນເຖິງຄວາມຈິງທີ່ວ່າພວກເຂົາບໍ່ມີປັນຍາ.
ໃນຄວາມຄິດເຫັນຂອງຂ້ອຍບັນຫາແມ່ນຢູ່ບ່ອນອື່ນ, ນັ້ນແມ່ນ, ມັນຢູ່ໃນຄວາມຈິງທີ່ວ່າບໍ່ມີ defiນິຍາມຂອງ “ປັນຍາປະດິດ” ທີ່ແບ່ງປັນກັນທົ່ວໂລກ ຫຼືເປັນການທົດສອບທີ່ສາມາດສ້າງ “ສິ່ງທີ່” ເປັນອັດສະລິຍະ ແລະສິ່ງທີ່ບໍ່ແມ່ນ. ໃນຄໍາສັບຕ່າງໆອື່ນໆ, ບໍ່ມີລະບົບການວັດແທກສໍາລັບສິ່ງທີ່ພວກເຮົາເອີ້ນວ່າ "ການຮັບຮູ້ຕົນເອງ" ຂອງເຄື່ອງຈັກ.
ບົດຄວາມທີ່ເອົາມາຈາກ Post of Gianfranco Fedele, ຖ້າທ່ານຕ້ອງການອ່ານໂພສທັງໝົດຄລິກທີ່ນີ້
ການພັດທະນາທັກສະດ້ານມໍເຕີທີ່ດີຜ່ານການໃສ່ສີເຮັດໃຫ້ເດັກນ້ອຍມີທັກສະທີ່ຊັບຊ້ອນເຊັ່ນ: ການຂຽນ. ໃສ່ສີ…
ຂະແໜງການທະເລແມ່ນກຳລັງເສດຖະກິດໂລກທີ່ແທ້ຈິງ, ໄດ້ເດີນທາງໄປສູ່ຕະຫຼາດ 150 ຕື້...
ວັນຈັນທີ່ຜ່ານມາ, Financial Times ໄດ້ປະກາດຂໍ້ຕົກລົງກັບ OpenAI. FT ອະນຸຍາດໃຫ້ນັກຂ່າວລະດັບໂລກຂອງຕົນ…
ຫລາຍລ້ານຄົນຈ່າຍຄ່າບໍລິການສະຕີມ, ຈ່າຍຄ່າທໍານຽມການສະຫມັກປະຈໍາເດືອນ. ມັນເປັນຄວາມຄິດເຫັນທົ່ວໄປທີ່ທ່ານ…