'Tech for Good': Bagaimana aplikasi pesan meningkatkan kesehatan masyarakat di Cina

IKLAN

Semua orang menyukai gagasan perawatan kesehatan yang dipersonalisasi, tetapi ketika diuji coba di masa lalu, biayanya seringkali terlalu tinggi, baik untuk perusahaan farmasi yang memproduksi obat -obatan dan untuk pasien dan sistem perawatan kesehatan.

“Itu sebabnya perusahaan farmasi suka mengembangkan 'blockbusters'. Ini hanya satu obat untuk semua,” kata Dr Alex Ng kepada EuroNews Health.

Tapi bagaimana jika AI bisa mengubah semua itu?

Kami duduk bersama Dr Alex Ng, presiden Tencent Healthcare, untuk mendengar tentang kemungkinan permainan AI dalam perawatan kesehatan dan memenuhi moto perusahaan 'Tech for Good'.

Akses ke perawatan kesehatan

Sementara kita semua tahu teknologi dapat membawa beberapa inovasi dan pengembangan hebat ke suatu industri, NG sangat sadar akan masalah yang dapat diciptakan oleh kurangnya akses sebagai layanan menjadi lebih digital.

“Apa yang telah kami lihat dengan sejarah adalah bahwa dengan digitalisasi, dengan semakin banyak mesin, Anda sebenarnya secara tidak sengaja memperluas kesenjangan ketidaksetaraan”Ng menjelaskan.

“Banyak dari itu mungkin karena akses, dan banyak yang akan disebabkan oleh penggantian, pembayaran, [and] kemampuan untuk membayar. Sekarang, kita telah melihat bahwa dengan setiap gelombang pengembangan teknologi, itu menjadi lebih luas dan lebih luas ”.

Tencent adalah konglomerat teknologi Tiongkok tetapi terkenal dengan aplikasi pesan populernya, WeChat.

Dengan memanfaatkan popularitas aplikasi, Tencent telah menambahkan fitur tambahan untuk membantu meningkatkan akses ke layanan kesehatan bagi pengguna mereka di Cina. Pengguna dapat memesan janji rumah sakit atau klinik, mendapatkan informasi tele-konsultasi dan menelusuri kesehatan dan obat-obatan melalui yang setara dengan WhatsApp.

“Kami dulu menulis banyak artikel medis untuk melakukan pendidikan kesehatan, kesadaran kesehatan. Tetapi sekarang, orang -orang pergi ke AI, apakah itu benar -benar chatgpt atau chatbots,” kata Ng.

“Kami dapat memastikan bahwa jawaban yang mereka dapatkan jauh lebih kaku dan terverifikasi dan lebih banyak peer-review, versus banyak halusinasi AI itu terkadang bisa mendapatkan ”.

Ini adalah layanan yang sangat penting di Cina, di mana, NG menjelaskan, pasien menerima hasil tes mereka bersamaan dengan dokter. Dan seperti kebanyakan dari kita juga, banyak pasien melihat ke internet untuk menafsirkan hasil sebelum janji tindak lanjut mereka dengan dokter mereka.

“Banyak waktu, kami menyediakan alat terhadap AI untuk benar -benar menjelaskan kepada mereka apa arti hasil tes ini. Tentu saja, dengan peringatan yang biasa, bahwa kami tidak dapat menggantikan saran dokter,” jelasnya.

“Bahkan jika kami tidak menyediakan mesin AI yang ketat untuk membantu mereka dengan itu, mereka hanya akan melakukannya pada AI acak lainnya yang tidak spesifik untuk perawatan kesehatan. Jika mereka hanya pergi ke alat acak dan mereka melakukannya, ketidakakuratan halusinasi mungkin bahkan lebih tinggi.

“Jadi kami berasal dari sudut pandang di mana kami sangat menyadari keseriusan mendukung pasien dan pengguna dalam menafsirkan beberapa hasil. Jadi kami mencoba menawarkan alternatif kebenaran yang jauh lebih banyak”.

Bisakah kita menerima AI yang membuat kesalahan dalam perawatan kesehatan?

Hasil menggunakan AI untuk kebaikan kesehatan masyarakat yang lebih besar tampak jelas tetapi di mana perdebatan menjadi menarik adalah kapasitas kita untuk menerima kesalahan. Saat bekerja dengan manusia, kami tampaknya jauh lebih menerima kesalahan manusia, namun mengharapkan AI, teknologi yang dibuat manusia, bukan untuk membuat kesalahan.

“AI tidak pernah sempurna. Sama seperti obat -obatan, setiap obat dimaksudkan untuk indikasi tertentu, tetapi Anda juga menerima bahwa itu akan memiliki efek samping dan beberapa yang ringan, beberapa moderat, beberapa serius, untuk seluruh populasi. Dan ada regulator, ada undang -undang di sekitar untuk melindungi itu, karena sebaliknya tidak ada yang akan berinvestasi di dalam Mengembangkan obat baru”Kata Ng.

“Saya pikir hal yang sama untuk AI. Jika kita memiliki satu AI yang dikembangkan untuk tugas tertentu, itu mungkin lebih baik daripada manusia, tetapi itu tidak sempurna. Jika ada kesalahan tertentu dalam batas, yang dapat diterima, bagaimana Anda mengaturnya?

“Bagaimana kita, sebagai sistem kesehatan, bekerja dengan regulator, bekerja dengan sistem kesehatan dalam beberapa hal, bekerja dengan masyarakat tentang apa yang dapat diterima? Dan saya pikir garis itu sangat berbeda untuk Cina, Asia Tenggara, AS, Eropa, dan Inggris karena saya pikir harapannya sangat berbeda”.