Wednesday, August 16, 2023

Nikki Mirghafori | Tâm Quảng Nhuận dịch Việt: The Path of Practice in our Digital Age | Con đường thực hành (PG) trong thời đại kỹ thuật số

 

Lần đầu tiên tôi bắt đầu yêu thích máy tính khi chỉ mới bốn tuổi. Xin nhấn mạnh, tôi chưa bao giờ tương tác và thậm chí tôi cũng chưa từng trực tiếp nhìn thấy nó. Đó là năm 1974, rất lâu trước khi cuộc cách mạng máy vi tính từ cuối thập niên 1970 và đầu thập niên 80 càn quét phương Tây. Và ở Tehran, quê hương của tôi, nơi máy tính cá nhân đi vào cuộc sống của mọi người muộn màng hơn.

Không có quá nhiều kỷ niệm mà tôi có thể nhớ lại từ năm đó, nhưng có một kỷ niệm khá sống động. Em họ của mẹ tôi, Mammad, một sinh viên trẻ tại Đại học Tehran, đến thăm vào một buổi chiều mang theo một món quà. Đó là một biểu ngữ “dot matrix lớn, khi được mở ra sẽ thu nhỏ kích thước nhỏ bé của tôi (nếu bạn chưa từng nhìn thấy biểu ngữ này, tôi khuyên bạn nên tìm kiếm hình ảnh biểu ngữ “dot matrix”—chúng rất ấn tượng). Bấy giờ, tôi vẫn chưa thông thạo chữ nghĩa, vì vậy thật bối rối khi nhìn người lớn phản ứng với tầm quan trọng của tập giấy trắng lớn được in các biểu tượng giống như ngôi sao nhỏ. Rồi mẹ bảo tôi đây là tên của mình bằng tiếng Ba Tư và máy tính đã in nó ra. Cái gì? Một chiếc máy tính nhân từ chưa gặp mặt đã biết tên tôi và làm món quà này cho tôi?! Tôi rất cảm động. Máy tính quan tâm đến tôi. Vì vậy, thật tự nhiên khi trái tim non nớt của tôi đáp lại tình cảm của chiếc máy tính tốt bụng này bằng tâm từ. Tôi trân trọng biểu ngữ và món quà được treo trên tường phòng tôi trong nhiều năm. Khi nhìn lại, tôi thường suy ngẫm về khoảnh khắc đó đã tạo ra nghiệp lực mạnh mẽ như thế nào, vì nó đã góp phần khiến tôi quyết định trở thành một nhà khoa học máy tính, chuyên ngành trí tuệ nhân tạo (AI), nhiều thập kỷ sau đó.

Không có gì lạ khi con người chúng ta nhân cách hóa máy tính, gán cho những phẩm chất giống con người và có cảm xúc mạnh mẽ đối với chúng. Những gì tôi mô tả ở trên là sự quy kết đơn giản thời thơ ấu của tôi về kiến ​​thức đối với máy tính. Phiên bản trưởng thành của điều này ngày nay là lập luận về điểm kỳ dị của nhiều người trong chúng ta, dự đoán rằng siêu trí tuệ máy tính sẽ vượt xa trí thông minh của con người. Nỗi sợ hãi thường đi kèm với một phiên bản đen tối của tương lai, với việc con người phục vụ những lãnh chúa siêu thông minh.

Quan điểm này được tranh luận mạnh mẽ. Một số nhà tương lai học tuyên bố rằng điểm kỳ dị đang ở gần,[1] trong khi nhiều chuyên gia AI lý luận rằng điều đó thậm chí không có khả năng xảy ra.[2] Tôi thấy mình thuộc nhóm đa số tán đồng “không có khả năng xảy ra”, cùng với Steven Pinker của Đại học Harvard, đã viết: “Đó không phải là lý do nhỏ nhất để tin vào một điểm kỳ dị sắp tới. Việc bạn có thể mường tượng ra một tương lai trong trí tưởng tượng của mình không phải là bằng chứng cho thấy nó có thể xảy ra hoặc thậm chí xảy ra. Hãy nhìn những thành phố có mái vòm, những chuyến đi bằng máy bay phản lực, thành phố dưới nước, những tòa nhà cao hàng dặm và ô tô chạy bằng năng lượng hạt nhân—tất cả những yếu tố chủ yếu của những tưởng tượng tương lai khi tôi còn là một đứa trẻ chưa bao giờ đặt chân đến. Sức mạnh xử lý tuyệt đối không phải là một ma thuật có thể giải quyết mọi vấn đề của bạn một cách kỳ diệu.” (IEEE Spectrum)

Điều mà tôi thường chứng kiến ở những người không chuyên về công nghệ, những người bị ám ảnh bởi nỗi sợ máy móc thông minh nhân tạo, là sự hiểu lầm về cách định nghĩa trí thông minh của máy móc (giải quyết vấn đề dựa trên một bộ quy tắc hoặc sử dụng các ví dụ trước đây). Một số thậm chí còn đi xa đến mức mong muốn gán ý thức nhân tạo cho máy móc. Với tư cách là một nhà khoa học AI và một giáo viên Phật giáo, tôi đánh giá cao quan điểm của giáo sư triết học UC Berkeley, John Searle, người đã nắm bắt được mấu chốt của điểm này một cách ngắn gọn: “[Máy tính], theo nghĩa đen. . . không có trí thông minh, không có động lực, không có quyền tự chủ và không có cơ quan. Chúng tôi thiết kế chúng để hành xử như thể chúng có một số loại tâm lý nhất định, nhưng không có thực tế tâm lý nào đối với các quy trình hoặc hành vi tương ứng… Máy móc không có niềm tin, ham muốn, [hoặc] động cơ.” (Searl 2014, 54)

“Các quy trình” mà Searle nói đến chỉ là các dòng mã hoặc thuật toán chủ yếu học cách nhận dạng các mẫu trong dữ liệu (ví dụ: hình ảnh, từ ngữ, lời nói, v.v.). Thực sự không có trí thông minh thực sự, không có động lực, không có quyền tự chủ…

Khi tôi suy ngẫm về thời đại công nghệ của chúng ta, điều khiến tôi quan tâm hơn không phải là mối đe dọa quá lớn của những cỗ máy siêu thông minh ở đâu đó trong tương lai, mà là cách chúng ta tương tác và triển khai công nghệ ngày nay. Tôi lo ngại về việc nghiện các phương tiện công nghệ, lượng thời gian chúng ta cùng nhau dành ra để duyệt qua các bài đăng trên Facebook, hình ảnh trên Instagram, Tweets trên twitter, các sản phẩm trên Amazon, v.v., v.v. trực tuyến, được kết nối và phản hồi 24/7 trên nhiều kênh kỹ thuật số. Tôi rất buồn trước sự phổ biến của các vấn đề sức khỏe tâm thần ở trẻ em, thanh thiếu niên và người lớn, những người phải chịu áp lực cộng đồng trực tuyến, chịu đựng quá nhiều, cảm thấy cần phải thể hiện một nhân thân hoàn hảo, những người bị bắt nạt hoặc thậm chí đau lòng hơn, những người học thói quen bắt nạt người khác qua lớp vỏ bọc của không gian kỹ thuật số…

Một số trách nhiệm thuộc về tất cả chúng ta, những người dùng, những người sẵn sàng tham gia sân chơi này, mà không biết sức mạnh tập thể của chính mình để thoát khỏi tình trạng tiêu thụ quá mức, để tạo ra một nền văn hóa kỹ thuật số lành mạnh hơn và yêu cầu các công nghệ nhân văn và đạo đức hơn. Tuy nhiên, gánh nặng trách nhiệm đặt lên vai các nhà thiết kế của những công nghệ gây nghiện này, những người tận dụng số lần nhấp, nhãn cầu và thời gian dành cho nền tảng của họ. Nó phụ thuộc vào những người thu thập dữ liệu, những người cẩn thận thu thập, phân tích, lưu trữ, sắp xếp nội dung cho kỹ thuật lựa chọn và đôi khi chúng tôi không biết, mua, bán và xâm phạm quyền riêng tư của chúng tôi. Các nguyên tắc thiết kế công nghệ có đạo đức và quyền riêng tư đã trở nên quan trọng hơn bao giờ hết trong xã hội của chúng ta.

Trong một thế giới mà gốc rễ của tham, sân và si có thể làm nảy sinh các cấu trúc xã hội, chính trị, tài chính và môi trường không lành mạnh, có lẽ không ngạc nhiên khi chứng kiến những khuôn mẫu tương tự trong các cấu trúc kỹ thuật số của chúng ta. Nhưng chúng ta hãy nhớ rằng sự thực hành của chúng ta ở bên trong cũng như ở bên ngoài. Khi chúng ta làm việc để trau dồi tâm vô tham (lòng rộng lượng), tâm vô sân (lòng tốt) và tâm vô si (trí tuệ), chúng ta phải mở rộng thực hành của mình ra thế giới—và cuộc sống kỹ thuật số của chúng ta cũng không ngoại lệ. Khi chúng ta rèn luyện bản thân để chào đón trải nghiệm của khoảnh khắc này bằng một phản ứng thích hợp, chúng ta tin tưởng vào khả năng của mình để đáp ứng tương lai mà không sợ hãi. Tương tự như vậy, thay vì lo sợ về tương lai kỹ thuật số của chúng ta, tôi mời tất cả chúng ta dồn sức lực để cùng nhau đáp ứng hiện tại kỹ thuật số của chúng ta với đạo đức và trí tuệ ở mọi khả năng, với tư cách là người dùng và nhà thiết kế, như con đường thực hành của chúng ta.

[1] Kurzweil, R. 2005. Điểm kỳ dị gần kề. Luân Đôn: Tập đoàn chim cánh cụt.
[2] Grace, K., Salvatier, J., Dafoe, A., Zhang, B., Evans, O. 2017. “Khi nào AI sẽ vượt qua hiệu suất của con người? Bằng chứng từ các chuyên gia AI”. arXiv:1705.08807 [cs.AI].

 

Nikki Mirghafori, Tiến sĩ, là một nhà khoa học trí tuệ nhân tạo và một giáo viên Phật giáo. Nikki là một người nắm giữ dòng truyền thừa trong truyền thống Theravada, được truyền thụ bởi bậc thầy người Miến Điện, Thượng tọa Pa Auk Sayadaw, cũng như Trung tâm Thiền định Spirit Rock. Cô phục vụ trong Hội đồng Giáo viên và Ban Giám đốc tại Trung tâm Thiền Spirit Rock và Insight ở Thành phố Redwood, California. Trong hai thập kỷ qua, Nikki là nhà nghiên cứu và phát minh về AI, nắm giữ nhiều bằng sáng chế. Cô đã chỉ đạo các chương trình nghiên cứu quốc tế, cố vấn cho các sinh viên sau tiến sĩ và tiến sĩ, là tác giả của nhiều bài báo khoa học, giảng dạy các khóa học sau đại học tại UC Berkeley và là cố vấn khoa học cho các công ty khởi nghiệp công nghệ ở Thung lũng Silicon. Để biết thêm thông tin, vui lòng xem http://www.nikkimirghafori.com.”

The Path of Practice in our Digital Age

Nikki Mirghafori

I was only four years old when I first developed an affection for computers. Mind you, I had never interacted with a computer, nor had I even seen one in person. It was 1974, long before the microcomputer revolution of the late 1970s and early 80s swept the West. And this was in Tehran, my hometown, where personal computers came into people’s lives even later.

There aren’t too many memories that I can recall from that year, but one is quite vivid. My mom’s cousin, Mammad, a young college student at Tehran University, came to visit one afternoon bearing a gift. It was a large dot matrix banner, which when unfolded, dwarfed my tiny size (if you have never seen one, I suggest you search for an image of a dot matrix banner—they are impressive). I was not yet empowered by the superpower of literacy, so I looked up in puzzlement at the adults as to the significance of the large reams of white paper printed with small starlike symbols. Then Mammad told me this was my name in Farsi and the computer had printed it. What? A benevolent computer, who hadn’t even met me, knew my name and had made this gift for me?! I was touched. The computer cared about me. So, it was only natural for my young heart to reciprocate the affection of this kindly computer with metta. I treasured the banner, and the gift hung on the wall of my room for many years. In retrospect, I have often reflected on how that moment produced strong karma, as it contributed to my decision to become a computer scientist, majoring in artificial intelligence (AI), decades later.

It is not uncommon for us humans to anthropomorphize computers, ascribing human-like qualities, and feeling strong emotions toward them. What I described above was my childhood’s simple attribution of cognition to a computer. The grown-up version of this today is the “singularity” argument, which predicts that computer superintelligence will far surpass human intelligence. Fear often accompanies a dystopian version of this future, with humans serving these super-intelligent overlords.

This thesis is strongly debated. Some futurists declare that the singularity is near,* whereas many AI experts reason that it is not even likely.** I find myself in the majority camp of “not likely” votes, together with Harvard University’s Steven Pinker, who wrote: “There is not the slightest reason to believe in a coming singularity. The fact that you can visualize a future in your imagination is not evidence that it is likely or even possible. Look at domed cities, jetpack commuting, underwater cities, mile-high buildings, and nuclear-powered automobiles—all staples of futuristic fantasies when I was a child that have never arrived. Sheer processing power is not a pixie dust that magically solves all your problems.” (IEEE Spectrum)

What I have often witnessed among non-technologists, who are possessed by the fear of artificially intelligent machines, is the misunderstanding of how machine intelligence is defined (solving problems based on a set of rules or using previous examples). Some even go as far as wishfully ascribing artificial consciousness to machines. Both as an AI scientist and a Buddhist teacher, I appreciate th perspective of UC Berkeley philosophy professor John Searle, who captures the crux of this point succinctly: “[Computers] have, literally . . . no intelligence, no motivation, no autonomy, and no agency. We design them to behave as if they had certain sorts of psychology, but there is no psychological reality to the corresponding processes or behavior. . . . The machinery has no beliefs, desires, [or] motivations.” (Searle 2014, 54)

The “processes” that Searle talks about are just lines of code or algorithms that primarily learn to recognize patterns in data (e.g., images, words, speech, etc.). There is indeed no real intelligence, no motivation, no autonomy, and no agency.

As I ponder our technological era, what concerns me more is not so much the hyped up threat of super intelligent machines somewhere in the future, but how we engage with and deploy technology today. I am concerned about addiction to technology interfaces, the amount of hours we collectively spend endlessly browsing through Facebook posts, images on Instagram, Tweets on twitter, products on Amazon, etc. etc. I am troubled by the celebrated culture of multitasking, needing to be online, plugged in, and responsive 24/7 on multiple digital channels. I’m saddened by the prevalence of mental health issues in children, teens, and adults who are subject to online social pressures, suffering overwhelm, feeling the need to present a perfect profile, those who are bullied, or even more heartbreakingly, those who learn the habit of bullying others through the veneer of digital distance.  The list can go on…

Some of the responsibility rests on all of us, the users, who willingly participate in this charade, not knowing our own collective power to disengage from the overconsumption, to create a more healthy digital culture, and to demand more humane and ethical technologies. The brunt of the responsibility, however, rests on the shoulders of the designers of these addictive technologies who capitalize on clicks, eyeballs, and time spent on their platform. It rests on the data collectors who carefully capture, analyze, store, curate content for choice engineering, and sometimes unbeknown to us, buy, sell, and otherwise compromise our privacy. Principles of ethical technology design and privacy have become more important than ever in our society.

In a world where the roots of greed, hatred, and delusion can give rise to unwholesome social, political, financial, and environmental structures, it is perhaps not surprising to witness the same patterns in our digital structures. But let us remember that our practice is as much internal as it is external. As we work to cultivate non-greed (generosity), non-hatred (kindness), and non-delusion (wisdom) in our hearts and minds, we must extend our practice to the world—and our digital lives are no exception. When we train ourselves to greet this moment’s experience with an appropriate response, we trust in our capacity to meet the future without fear. Similarly, instead of fearing our digital future, I invite all of us to put our energies into collectively meeting our digital present with ethics and wisdom in every capacity, as users and designers, as our path of practice.

Nikki Mirghafori, PhD, is an artificial intelligence scientist and a Buddhist teacher. Nikki is a lineage holder in the Theravada tradition, empowered by the Burmese master Venerable Pa Auk Sayadaw, as well as Spirit Rock Meditation Center. She serves on the Teachers Council and Board of Directors at Spirit Rock and Insight Meditation Center in Redwood City, California. For the past two decades, Nikki has been a researcher and inventor in AI, holding multiple patents. She has directed international research programs, mentored post-doc and PhD students, authored many scientific articles, taught graduate courses at UC Berkeley, and been a scientific advisor to Silicon Valley technology startups. For more information, please see www.nikkimirghafori.com.”

* Kurzweil, R. 2005. The Singularity is Near. London: Penguin Group.

** Grace, K., Salvatier, J., Dafoe, A., Zhang, B., Evans, O. 2017. “When Will AI Exceed Human Performance? Evidence from AI Experts“. arXiv:1705.08807 [cs.AI].

References

Searle, J. R.  2014, “What Your Computer Can’t Know,” The New York Review of Books. 9 October 2014.

See more

Tech Luminaries Address Singularity (IEEE Spectrum)

No comments:

Post a Comment