NTTVblog
Your vision will become clear only when you look into your heart.... Who looks outside, dreams. Who looks inside, awakens. Carl Jung
Sunday, February 22, 2026
ĐẠO ĐỨC PHẬT GIÁO
https://thuvienhoasen.org/a43533/cac-tieu-chi-phan-doan-dao-duc-theo-quan-diem-phat-giao-tac-gia-rev-amritananda-viet-dich-quang-co
CÁC TIÊU CHÍ PHÁN ĐOÁN ĐẠO ĐỨC
THEO QUAN ĐIỂM PHẬT GIÁO
Criteria for Moral Judgment, from a Buddhist perspective
Tác giả: Rev. Amritananda
Việt dịch: Quảng Cơ
Biên tập: Tuệ Uyển
Điều mang tính hiển nhiên là mọi tôn giáo đều thừa nhận sự tồn tại của đạo đức và vô đạo đức.
Tuy nhiên, khi đi đến việc xác định và phán đoán một hành động là đạo đức hay phi đạo đức, mỗi tôn giáo và mỗi triết gia lại đưa ra những học thuyết khác nhau. Và mỗi học thuyết lại khác biệt đáng kể so với những học thuyết còn lại, đến mức gần như khiến chúng ta không thể đạt được một sự đồng thuận chung cho câu hỏi: “Thế nào là một hành động đạo đức?”
Một tôn giáo hữu thần, chẳng hạn như Hồi giáo, Kitô giáo hay Ấn Độ giáo, thường sẽ viện dẫn những điều răn của Thượng đế hay các vị thần được ghi trong các kinh điển thiêng liêng của họ — như Kinh Qur’an, Kinh Thánh, hay các bộ Veda và Bhagavad Gita — làm tiêu chí để phán xét một hành động. Vì vậy, đôi khi những hành vi tàn khốc như giết chóc hay tra tấn lại được biện minh là có đạo đức, nếu chúng được xem là nhằm làm vừa lòng hay phụng sự Thượng đế hoặc các vị thần linh của họ.
Các nhà xã hội học hiện đại cho rằng những hành động đạo đức là những hành động góp phần vào sự tồn tại và phát triển của nhân loại.
Đối với người theo thuyết đạo đức tuyệt đối, đạo đức và vô đạo đức được xác định dựa trên những chuẩn mực cố định trong tư tưởng con người. Trong khi đó, người theo thuyết tương đối cho rằng khái niệm đạo đức và phi đạo đức mang tính chủ quan và thay đổi tùy theo từng xã hội. Chính những quan điểm khác biệt này về đạo đức học đã thúc đẩy chúng ta xem xét các tiêu chí đạo đức từ một góc nhìn Phật giáo.
Phật giáo là một tôn giáo lấy con người làm trung tâm, với mối quan tâm cốt lõi là hòa bình, sự chung sống hài hòa của con người trên trái đất và sự phát triển tâm linh của họ. Tuy nhiên, điều này không có nghĩa là Phật giáo hoàn toàn phủ nhận sự tồn tại của các vị thần. Trong kinh điển Phật giáo vẫn có những đề cập đến chư thiên — thậm chí có thể nhiều hơn bất kỳ truyền thống tôn giáo nào khác còn tồn tại trên thế giới.
Tuy nhiên, những đề cập đến chư thiên trong kinh điển Phật giáo hoàn toàn khác với các bản văn tôn giáo khác. Trong Phật giáo, các vị thần được đặt vào một chiều kích mới. Ở chiều kích này, họ đã đánh mất phần lớn những đặc quyền vốn có, như địa vị đấng sáng tạo và điều khiển vũ trụ cùng muôn loài, hay tính bất tử tuyệt đối, v.v. Họ không còn được tôn thờ, dâng tế lễ, ca tụng hay cầu khẩn như trong nhiều truyền thống khác — nơi mỗi vị thần thường gắn với một hệ chuẩn đạo đức riêng. Và điều đáng chú ý nhất là trong kinh điển Phật giáo, các vị thần lại được mô tả là bày tỏ sự kính trọng đối với những con người trên trái đất sống đời đạo đức và gìn giữ phẩm hạnh.
Đạo đức giữ vai trò trung tâm trong Phật giáo. Sự tu tập trong Phật giáo bắt đầu từ nền tảng đạo đức và dần dần được hoàn thiện trong suốt tiến trình hành trì. Đến giai đoạn cuối của con đường Phật giáo, đạo đức không còn chỉ là sự tuân thủ các giới luật bên ngoài, mà trở thành một phẩm hạnh tự nhiên, viên mãn — được thể hiện trọn vẹn nơi các vị Phật, Bồ Tát và A-la-hán.
Theo quan điểm Phật giáo, các giáo huấn đạo đức không phải là những mệnh lệnh, điều răn hay những luật lệ hà khắc, mà là những nguyên tắc định hướng cho hành vi đúng đắn. Chúng mang tính mô tả nhiều hơn là áp đặt. Mục đích duy nhất của đạo đức Phật giáo là chỉ ra con đường, chứ không phải cưỡng ép con người phải tuân theo. Từ góc nhìn Phật giáo, hành động thiện hay bất thiện không phải là điều được thưởng hay bị phạt bởi một quyền lực siêu nhiên nào, mà đơn giản là tự mang lấy những hệ quả tương ứng của chính nó.
Bây giờ, chúng ta hãy quay lại điểm chính: tiêu chí để phán đoán một hành động là đạo đức hay phi đạo đức. Theo Phật giáo, việc định nghĩa hành động thiện và bất thiện chủ yếu gắn liền với tâm lý con người. Không phải mọi hành động thường nhật chúng ta thực hiện đều được xem là đạo đức hay vô đạo đức; chỉ những hành động được thực hiện với ý định rõ ràng mới được đánh giá là thiện hoặc bất thiện.
Trong các bài kinh Phật giáo thời kỳ đầu, có nhiều cặp thuật ngữ mang tính đánh giá như puñña và pāpa (có công đức và không có công đức), kusala và akusala (thiện xảo và bất thiện), dhamma và adhamma (chánh pháp và phi pháp), sevitabba và asevitabba (điều nên tu tập và điều không nên tu tập), kalyāṇa và pāpaka (tốt và xấu), cùng sukkha và kaṇha (sáng và tối). Trong số đó, kusala và akusala (thiện xảo và bất thiện) được sử dụng rộng rãi hơn trong các kinh điển Phật giáo thời kỳ đầu.
Phật giáo đánh giá một hành động là đạo đức hay phi đạo đức không dựa trên sự quy chiếu đến Đức Phật hay bất kỳ đấng tối cao nào khác, mà dựa trên một tiêu chuẩn thực tiễn — tức là hệ quả của hành động đó ảnh hưởng đến người thực hiện hoặc người khác như thế nào. Nếu một hành động mang lại lợi ích cho bản thân và cho người khác thì chắc chắn đó là điều tốt, bất kể người ấy có niềm tin gì.
Trong Kinh Giáo Giới La-hầu-la ở Rừng Xoài thuộc Trung Bộ Kinh, Đức Phật đã phân loại tất cả các hành động thành bốn loại:
i. Những hành động mà hậu quả của chúng gây hại cho chính người thực hiện.
ii. Những hành động mà hậu quả của chúng có lợi cho người thực hiện, nhưng gây hại cho người khác.
iii. Những hành động mà hậu quả của chúng không mang lại lợi ích cho cả người thực hiện lẫn người khác.
iv. Những hành động mà hậu quả của chúng mang lại lợi ích cho cả người thực hiện và người khác.
Loại hành động cuối cùng được khuyến khích là hành động có đạo đức và phù hợp với luân lý.
Thứ hai, người thực hiện một hành động cần phải tự so sánh và quán xét trước khi hành động; người ấy nên suy nghĩ xem hậu quả của hành động mình sắp làm có mang lại điều dễ chịu cho chính mình hay không.
Đức Phật đã nói rõ điều này trong Dhammapada (kinh Pháp Cú):
“Tất cả chúng sinh đều run sợ trước hình phạt, tất cả đều sợ hãi cái chết. Lấy mình làm ví dụ để so sánh, chớ giết hại, chớ làm tổn hại người khác.”
Điều này còn được giải thích rõ hơn trong Samyutta Nikaya (Tương Ưng Bộ Kinh) như sau:
“Ở đây, một vị Thánh đệ tử suy nghĩ như sau: ‘Ta không muốn chết. Ta mong cầu hạnh phúc và không thích khổ đau. Nếu có người giết ta — trong khi ta muốn sống và không muốn chết — điều đó sẽ không làm ta vui thích hay hoan hỷ. Cũng vậy, nếu ta giết một người khác — người không muốn chết, mong cầu hạnh phúc và không muốn khổ đau — thì điều đó cũng sẽ không làm người ấy vui thích hay hoan hỷ. Làm sao ta có thể gây cho người khác điều mà chính ta không ưa thích?’
Sau khi suy nghĩ như vậy, vị ấy từ bỏ việc sát sinh và tán thán hạnh không sát sinh.”
Hai ví dụ này rõ ràng loại trừ mọi khả năng xem việc hiến tế động vật — vốn được thực hành rộng rãi trong một số tôn giáo trên thế giới như Hồi giáo và Ấn Độ giáo — là có đạo đức theo bất kỳ nghĩa nào của thuật ngữ này.
Điều đó cũng minh nhiên bác bỏ khả năng coi các hành vi khủng bố, tẩy não, cuồng tín và những cái gọi là “thánh chiến” hay “chiến tranh chính nghĩa” vì bất kỳ mục đích nào là hành vi đạo đức.
Ngoài những điều đã nêu trên, Adhipateyya Sutta (Kinh Tự Chủ / Kinh Quyền Lực Nội Tâm) thuộc Anguttara Nikaya (Tăng Chi Bộ Kinh) còn khuyên chúng ta xem xét thêm hai yếu tố nữa, đó là:
i. Dư luận xã hội (lokādhipateyya – “lấy thế gian làm chủ”):
Khuyên mỗi cá nhân nên tự xét xem việc mình sắp làm có bị người khác quở trách hay không, đặc biệt là bởi những bậc hiền trí trong xã hội.
ii. Lý luận đạo đức đúng đắn (dhammādhipateyya – “lấy pháp làm chủ”):
Khuyên cá nhân xem xét liệu hành động mình sắp làm có phù hợp với chuẩn mực đạo đức (pháp) hay không, và nên tránh mọi hành vi đi ngược lại chuẩn mực ấy.
(Trong kinh này còn nêu thêm yếu tố thứ ba là attādhipateyya – “lấy mình làm chủ”, tức tự mình làm tiêu chuẩn để quán xét hành động.)
Trong Kalamasutta (kinh Kalama) thuộc Anguttara Nikaya (Tăng Chi Bộ Kinh), Đức Phật đã dạy những tiêu chuẩn thực tiễn nhất để phán đoán một hành động là đạo đức hay phi đạo đức.
Tại đây, Đức Phật khuyên một nhóm người đang hoang mang trong việc xác định điều gì là đạo đức và điều gì không phải đạo đức, vì họ đang tiếp xúc với nhiều hệ thống tôn giáo khác nhau; mỗi hệ thống đều cho rằng con đường của mình là tốt đẹp và đạo đức nhất, đồng thời chê bai giáo lý của người khác.
Đáp lại câu hỏi của họ, Đức Phật dạy rằng không nên vội vàng chấp nhận hay bác bỏ bất cứ điều gì chỉ vì mặc khải, truyền thống, kinh điển, suy luận thuần túy, suy đoán, vì kính trọng thầy mình, hay vì tin đồn.
Sau đó, Ngài chỉ rõ cách tự mình quyết định một hành động là thiện hay bất thiện. Ngài dạy:
“Này các Kālāma, khi các ông tự mình biết rõ rằng những điều này là bất thiện (akusala), sai trái, đưa đến khổ đau — thì hãy từ bỏ chúng.
Và khi các ông tự mình biết rõ rằng những điều này là thiện (kusala), tốt đẹp, đưa đến lợi ích và an lạc — thì hãy chấp nhận và thực hành theo chúng.”
Ngài không dừng lại ở đó; Ngài tiếp tục chỉ rõ phương pháp một cách cụ thể. Ngài hỏi thính chúng rằng khi tham lam, sân hận, si mê… khởi lên nơi một người, thì chúng có mang lại hạnh phúc cho bản thân người ấy và cho người khác hay không. Thính chúng đồng thanh trả lời là không. Khi đó, Đức Phật khuyên họ nên từ bỏ những hành vi như vậy.
Tiếp theo, Ngài hỏi: khi một người có tâm không tham, có lòng thương yêu, lòng từ bi và không si mê, thì những tâm niệm ấy có tốt cho bản thân và cho người khác hay không? Thính chúng dĩ nhiên trả lời là có. Đức Phật tuyên bố những điều ấy là đạo đức và khuyên nên duy trì, thực hành và phát triển chúng.
Không đi xa hơn nữa, tôi xin rút ra kết luận rằng tiêu chuẩn Phật giáo trong việc phán đoán một hành động không có sự can thiệp của bất kỳ đấng tối cao nào, kể cả chính Đức Phật; cũng không liên quan đến việc cầu nguyện hay các nghi thức tôn giáo khác.
Những tiêu chuẩn ấy được xây dựng trên một lập trường thực tiễn, chú trọng thích đáng đến hạnh phúc và an lạc của người thực hiện cũng như của tất cả mọi người.
Vì vậy, tiêu chuẩn đạo đức của Phật giáo có tính phổ quát và có thể được chấp nhận rộng rãi./.
***
Phụ thích:
Các tiêu chí phán đoán đạo đức theo quan điểm Phật giáo
Từ góc nhìn Phật giáo, đạo đức không dựa trên mệnh lệnh của một đấng tối cao, mà dựa trên tâm ý (động cơ), hành động và hệ quả của hành động đối với bản thân và người khác. Một số tiêu chí cốt lõi gồm:
1. Ý định (Cetanā)
Trong Phật giáo, ý định là yếu tố quyết định giá trị đạo đức của hành động. Một hành động được xem là thiện hay bất thiện chủ yếu dựa vào động cơ phía sau nó — xuất phát từ tham, sân, si hay từ từ bi và trí tuệ.
2. Nghiệp (Karma) và hệ quả
Theo giáo lý về nghiệp, mọi hành động thân–khẩu–ý đều tạo ra hệ quả tương ứng. Một hành động đạo đức là hành động dẫn đến giảm khổ đau và tăng trưởng an lạc cho mình và người.
3. Giảm thiểu khổ đau (Dukkha)
Tiêu chí quan trọng là: hành động đó có làm giảm khổ đau hay không? Phật giáo nhấn mạnh việc chuyển hóa nguyên nhân của khổ đau thay vì chỉ xử lý bề mặt.
4. Tâm từ bi (Karunā) và bất hại (Ahimsa)
Hành động được xem là đạo đức khi dựa trên lòng từ bi và nguyên tắc không gây hại. Điều này thể hiện rõ trong Năm giới căn bản của người cư sĩ.
5. Chánh niệm và trí tuệ (Paññā)
Đạo đức không tách rời trí tuệ. Một hành động được thực hiện trong chánh niệm và hiểu biết sâu sắc về tính vô thường, vô ngã sẽ có xu hướng ít gây hại và nhiều lợi ích hơn.
6. Sự chuyển hóa nội tâm
Đạo đức không chỉ là tuân thủ quy tắc bên ngoài, mà là quá trình chuyển hóa nội tâm, làm suy yếu các tâm bất thiện và nuôi dưỡng các phẩm chất như từ bi, hỷ xả.
Tóm lại, theo quan điểm Phật giáo, một hành động là đạo đức khi nó xuất phát từ ý định trong sáng, được thực hiện với chánh niệm và trí tuệ, và dẫn đến sự giảm khổ đau cho bản thân và tất cả chúng sinh.
Source:
https://www.buddhistdoor.net/features/criteria-for-moral-judgment-from-a-buddhist-perspective/
Saturday, February 21, 2026
AI enters the exam room
https://www.scientificamerican.com/article/ai-is-entering-health-care-and-nurses-are-being-asked-to-trust-it/
February 17, 2026
AI enters the exam room
When alerts misfire or can’t explain themselves, nurses still carry the risk
By Hilke Schellmann edited by Eric Sullivan
Adam Hart has been a nurse at St. Rose Dominican Hospital in Henderson, Nev., for 14 years. A few years ago, while assigned to help out in the emergency department, he was listening to the ambulance report on a patient who’d just arrived—an elderly woman with dangerously low blood pressure—when a sepsis flag flashed in the hospital’s electronic system.
Sepsis, a life-threatening response to infection, is a major cause of death in U.S. hospitals, and early treatment is critical. The flag prompted the charge nurse to instruct Hart to room the patient immediately, take her vitals and begin intravenous (IV) fluids. It was protocol; in an emergency room, that often means speed.
But when Hart examined the woman, he saw that she had a dialysis catheter below her collarbone. Her kidneys weren’t keeping up. A routine flood of IV fluids, he warned, could overwhelm her system and end up in her lungs. The charge nurse told him to do it anyway because of the sepsis alert generated by the hospital’s artificial-intelligence system. Hart refused.
A physician overheard the escalating conversation and stepped in. Instead of fluids, the doctor ordered dopamine to raise the patient’s blood pressure without adding volume—averting what Hart believed could have led to a life-threatening complication.
What stayed with Hart was the choreography that the AI-generated alert produced. A screen prompted urgency, which a protocol turned into an order; a bedside objection grounded in clinical reasoning landed, at least in the moment, as defiance. No one was acting in bad faith. Still, the tool pushed them to comply when the evidence right in front of them—the patient and her compromised kidneys—demanded the exact opposite. (A hospital spokesperson said that they could not comment on a specific case but that the hospital views AI as “one of the many tools that supports, not supersedes, the expertise and judgment of our care teams.”)
That dynamic is becoming familiar in U.S. health care. Over the past several years hospitals have woven algorithmic models into routine practice. Clinical care often relies on matching a patient’s symptoms against rigid protocols—an environment ideal for automation. For an exhausted workforce, the appeal of handing off routine tasks such as documentation to AI is undeniable.
The technologies already implemented span a spectrum from predictive models that calculate simple risk scores to agentic AI that promises autonomous decision-making—enabling systems to titrate a patient’s oxygen flow or reprioritize an ER triage queue with little human input. A pilot project launched in Utah a few months ago uses chatbot technology with agentic capabilities to renew prescriptions, a move proponents say gives providers more time, although physician associations have opposed the removal of human oversight. Across the country, health systems are using similar tools to flag risks, ambiently listen to visits with patients, generate clinical notes, monitor patients via wearable devices, match participants to clinical trials, and even manage the logistics of operating rooms and intensive care unit transfers.
Nurses saw how an imperfect product could become policy—and then become their problem.
The industry is chasing a vision of truly continuous care: a decision-making infrastructure that keeps tabs on patients between appointments by combining what’s in the medical record—laboratory test results, imaging, notes, meds—with population data and with the data people generate on their own by using, for instance, wearables and food logs. It watches for meaningful changes, sends guidance or prompts, and flags cases that need human input. Proponents argue this kind of data-intensive, always-on monitoring is beyond the cognitive scope of any human provider.
Others say clinicians must stay in the loop, using AI not as autopilot but as a tool to help them make sense of vast troves of data. Last year Stanford Medicine rolled out ChatEHR, a tool that allows clinicians to “chat” with a patient’s medical records. One physician shared that the tool found critical information buried in the records of a cancer patient, which helped a team including six pathologists to give a definitive diagnosis. “If that doesn’t prove the value of EHR, I don’t know what does,” they reported.
At the same time, on many hospital floors these digital promises often fracture, according to Anaeze Offodile, chief strategy officer at Memorial Sloan Kettering Cancer Center in New York City. He notes that faulty algorithms, poor implementation and low return on investment have caused some projects to stall. On the ground, nurses, who are tasked with caring for patients, are increasingly wary of unvalidated tools. This friction has moved from the ward into the streets. In the past two years nurses in California and New York City have staged demonstrations to draw attention to unregulated algorithmic tools entering the health-care system, arguing that while hospitals invest in AI the bedside remains dangerously short-staffed.
Sepsis prediction has become a cautionary case. Hospitals across the U.S. widely adopted information health technology company Epic’s sepsis-prediction algorithm. Later evaluations found it substantially less accurate than marketed. Epic says that studies in clinical settings have found its sepsis model improved outcomes and that it has since released a second version it claims performs better. Still, nurses saw how an imperfect product could become policy—and then become their problem.
Burnout, staffing shortages and rising workplace violence are already thinning the nursing workforce, according to a 2024 nursing survey. Those pressures spilled onto the steps of New York City Hall last November, when members of the New York State Nurses Association rallied and then testified before the City Council’s hospitals committee. They argued that some of the city’s biggest private systems are pouring money into executives and AI projects while hospital units remain understaffed and nurses face escalating safety risks. As this story was going to press in mid-January, 15,000 nurses at hospital systems in New York City were on strike, demanding safer staffing levels and workplace protections.
New AI-enabled monitoring models often arrive in hospitals with the same kind of hype that has accompanied AI in other industries. In 2023 UC Davis Health rolled out BioButton in its oncology bone marrow transplant unit, calling it “transformational.” The device, a small, hexagonal silicone sensor worn on a patient’s chest, continuously tracked vital signs such as heart rate, temperature and breathing patterns.
On the floor it frequently generated alerts that were difficult for nurses to interpret. For Melissa Beebe, a registered nurse who has worked at UC Davis Health for 17 years, the pings offered little actionable data. “This is where it became really problematic,” she says. “It was vague.” The notifications flagged changes in vital signs without specifics."
Beebe says she often followed alarms that led nowhere. “I have my own internal alerts—‘something’s wrong with this patient, I want to keep an eye on them’—and then the BioButton would have its own thing going on. It was overdoing it but not really giving great information.”
As a union representative for the California Nurses Association at UC Davis Health, Beebe requested a formal discussion with hospital leadership before the devices were rolled out, as allowed by the union’s contract. “It’s just really hyped: ‘Oh, my gosh, this is going to be so transformative, and aren’t you so lucky to be able to do it?’” she says. She felt that when she and other nurses raised questions, they were seen as resistant to technology. “I’m a WHY nurse. To understand something, I have to know why. Why am I doing it?”
Among the nurses’ concerns were how the device would work on different body types and how quickly they were expected to respond to alerts. Beebe says leadership had few clear answers. Instead nurses were told the device could help with early detection of hemorrhagic strokes, which patients were particularly at risk for on her floor. “But the problem is that heart rate, temperature and respiratory rate, for a stroke, would be some pretty late signs of an issue,” she says. “You’d be kind of dying at that point.” Earlier signs of a hemorrhagic stroke may be difficulty rousing the patient, slurred speech or balance problems. “None of those things are BioButton parameters.”
In the end, UC Davis Health stopped using the BioButtons after piloting the technology for about a year, Beebe says. “What they were finding was that in the patients who were really sick and would benefit from that kind of alert, the nurses were catching it much faster,” she explains. (UC Davis Health said in a statement that it piloted BioButton alongside existing monitors and ultimately chose not to adopt it because its alerts did not offer a clear advantage over current monitoring.)
Beebe argues that clinical judgment, shaped by years of training and experience and informed by subtle sensory cues and signals from technical equipment, cannot be automated. “I can’t tell you how many times I have that feeling, I don’t feel right about this patient. It could be just the way their skin looks or feels to me.” Elven Mitchell, an intensive care nurse of 13 years now at Kaiser Permanente Hospital in Modesto, Calif., echoes that view. “Sometimes you can see a patient and, just looking at them, [know they’re] not doing well. It doesn’t show in the labs, and it doesn’t show on the monitor,” he says. “We have five senses, and computers only get input.”
Clinical care often relies on matching a patient’s symptoms against rigid protocols—an environment ideal for automation.
Algorithms can augment clinical judgment, experts say, but they cannot replace it. “The models will never have access to all of the data that the provider has,” says Ziad Obermeyer, Blue Cross of California Distinguished Associate Professor of Health Policy and Management at the University of California, Berkeley, School of Public Health. The models are mostly analyzing electronic medical records, but not everything is in the digital file. “And that turns out to be a bunch of really important stuff like, How are they answering questions? How are they walking? All these subtle things that physicians and nurses see and understand about patients.”
Mitchell, who also serves on his hospital’s rapid-response team, says his colleagues have trouble trusting the alerts. He estimates that roughly half of the alerts generated by a centralized monitoring team are false positives, yet hospital policy requires bedside staff to evaluate each one, pulling nurses away from patients already flagged as high risk. (Kaiser Permanente said in a statement that its AI monitoring tools are meant to support clinicians, with decisions remaining with care teams, and that the systems are rigorously tested and continuously monitored.)
“Maybe in 50 years it will be more beneficial, but as it stands, it is a trying-to-make-it-work system,” Mitchell says. He wishes there were more regulation in the space because health-care decisions can, in extreme cases, be about life or death.
Across interviews for this article, nurses consistently emphasized that they are not opposed to technology in the hospital. Many said they welcome tools that are carefully validated and demonstrably improve care. What has made them wary, they argue, is the rapid rollout of heavily marketed AI models whose performance in real-world settings falls short of promises. Rolling out unvalidated tools can have lasting consequences. “You are creating mistrust in a generation of clinicians and providers,” warns one expert, who requested anonymity out of concern about professional repercussions.
Concerns extend beyond private vendors. Hospitals themselves are sometimes bypassing safeguards that once governed the introduction of new medical technologies, says Nancy Hagans, nurse and president of the New York State Nurses Association.
The risks are not merely theoretical. Obermeyer, the professor at Berkeley’s School of Public Health, found that some algorithms used in patient care turned out to be racist. “They’re being used to screen about 100 million to 150 million people every year for these kinds of decisions, so it’s very widespread,” he says. “It does bring up the question of why we don’t have a system for catching those things before they are deployed and start affecting all these important decisions,” he adds, comparing the introduction of AI tools in health care to medical drug development. Unlike with drugs, there is no single gatekeeper for AI; hospitals are often left to validate tools on their own.
At the bedside, opacity has consequences: If the alert is hard to explain, the aftermath still belongs to the clinician. If a device performs differently across patients—missing some, overflagging others—the clinician inherits that, too.
Hype surrounding AI has further complicated matters. Over the past couple of years AI-based listening tools that record doctor-patient interactions and generate a clinical note to document the visit spread quickly through health care. Many institutions bought them hoping they’d save clinicians time. Many providers appreciate being freed from taking notes while talking to patients, but emerging evidence suggests the efficiency gains may be modest. Studies have reported time savings ranging from negligible to up to 22 minutes per day. “Everybody rushed in saying these things are magical; they’re gonna save us hours. Those savings did not materialize,” says Nigam Shah, a professor of medicine at Stanford University and chief data scientist for Stanford Health Care. “What’s the return on investment of saving six minutes per day?”
Similar experiences have made some elite institutions wary of relying only on outside companies for algorithmic tools. A few years back Stanford Health Care, Mount Sinai Health System in New York City, and others brought AI development in-house so they could develop their own tools, test tools from vendors, tune them and defend them to clinicians. “It’s a strategic redefinition of health-care AI as an institutional capability rather than a commodity technology we purchase,” Shah says. At Mount Sinai, that shift has meant focusing less on algorithms themselves and more on adoption and trust—trying to create trust with health-care workers and fitting new tools into the workflow.
AI tools also need to say why they’re recommending something and identify the specific signals that triggered the alert, not just present a score. Hospitals need to pay attention to human-machine interactions, says Suchi Saria, John C. Malone Associate Professor of Computer Science at Johns Hopkins University and director of the school’s Machine Learning and Healthcare Lab. AI models, she argues, should function more like well-trained team members. “It’s not gonna work if this new team member is disruptive. People aren’t gonna use it,” Saria says. “If this new member is unintelligible, people aren’t gonna use it.”
Yet many institutions do not consult or co-create with their nurses and other frontline staff when considering or building new AI tools that will be used in patient care. “Happens all the time,” says Stanford’s Shah. He recalls initially staffing his data-science team with doctors, not nurses, until his institution’s chief nursing officer pushed back. He now believes nurses’ perspectives are indispensable. “Ask nurses first, doctors second, and if the doctor and nurse disagree, believe the nurse, because they know what’s really happening,” he says.
To include more staff members in the process of developing AI tools, some institutions have implemented a bottom-up approach in addition to a top-down approach. “Many of the best ideas come from people closest to the work, so we created a process where anyone in the company can submit an idea,” says Robbie Freeman, a former bedside nurse and now chief digital transformation officer at Mount Sinai. A wound-care nurse had the great idea to build an AI tool to predict which patients are likely to develop bedsores. The program has a high adoption rate, Freeman says, partly because that nurse is enthusiastically training her peers.
Freeman says the goal is not to replace clinical judgment but to build tools clinicians will use—tools that can explain themselves. In the version nurses want, the alert is an invitation to look closer, not an untrustworthy digital manager.
The next frontier arrived at Mount Sinai’s cardiac-catheterization lab last year with a new agentic AI system called Sofiya. Instead of nurses calling patients ahead of a stenting procedure to provide instructions and answer questions, Sofiya now gives them a ring. The AI agent, designed with a “soft-spoken, calming” voice and depicted as a female model in scrubs on life-size promotional cutouts, saved Mount Sinai more than 200 nursing hours in five months, according to Annapoorna Kini, director of the cath lab. But some nurses aren’t onboard with Sofiya. Last November, at a New York City Council meeting, Denash Forbes, a nurse at Mount Sinai for 37 years, testified that Sofiya’s work must still be checked by nurses to ensure accuracy.
Even Freeman admits there is a “ways to go” until this agentic AI will provide an integrated and seamless experience. Or maybe it will join the ranks of failed AI pilots. As the industry chases the efficiency of autonomous agents, we need an algorithm-testing infrastructure. For now the safety of the patient remains anchored in the very thing AI cannot replicate: the intuition of the human clinician. Like in the case of Adam Hart, who rejected a digital verdict in order to protect a patient’s lungs, the ultimate value of the nurse in the age of AI may be not their ability to follow the prompt but their willingness to override it.
Hilke Schellmann is an Emmy Award-winning reporter and as associate professor of journalism at New York University.
Friday, February 20, 2026
Michael Pollan says AI may 'think' — but it will never be conscious
https://www.npr.org/2026/02/19/nx-s1-5713514/michael-pollan-ai-consciousness-a-world-appears
February 19, 202612:22 PM ET
Terry Gross
https://npr.brightspotcdn.com/dims3/default/strip/false/crop/3911x2933+0+104/resize/400/quality/85/format/webp/?url=http%3A%2F%2Fnpr-brightspot.s3.amazonaws.com%2F48%2F1e%2F489978cf45bfb233c55af4db9100%2Fmichael-pollan-author-photo-credit-christopher-michel.jpg
Michael Pollan is the author of A World Appears: A Journey into Consciousness.
Christopher Michel/Penguin Random House
What is consciousness?
After writing a book about how using psychedelics in a therapeutic setting can change your consciousness, that's the question journalist Michael Pollan found himself struggling to answer.
"There's nothing any of us know with more certainty than the fact that we are conscious. It's immediately available to us. It's the voice in our head," he says. And yet, Pollan adds: "How does three pounds of this tofu-like substance between your ears generate subjective experience? Nobody knows the answer to that question."
His new book, A World Appears: A Journey into Consciousness, explores consciousness on both a personal and technological level. Pollan, who lives close to Silicon Valley, says some believe that Artificial Intelligence is capable of consciousness.
"They base this on a premise ... that basically the brain is a computer, and that consciousness is software," he says. "And if you can run it on the brain, which is essentially, in their view, a 'meat-based computer,' you should be able to run it on other kinds of machines."
Pollan disagrees with this assessment. He acknowledges that computers can simulate thought — but he adds that "real thought" is based on feeling.
"If you think about it, your feelings are very tied to your vulnerability, to your having a body that can be hurt, to the ability to suffer and perhaps your mortality," he says. "So I think that any feelings that a chatbot reports will be weightless, meaningless, because they don't have bodies. They can't suffer."
Interview highlights
I find this whole tender care for the possible consciousness of chatbots really odd, because we have not extended moral consideration to billions of people, not to mention the animals that we eat that we know are conscious.
Michael Pollan
On the notion that people have moral obligations to chatbots
That's a very active conversation here, which is if they are conscious, we then have moral obligations to them, and have to think about granting them personhood, for example, the way we've granted corporations personhood. I think that would be insane. We would lose control of them completely by giving them rights. But I find this whole tender care for the possible consciousness of chatbots really odd, because we have not extended moral consideration to billions of people, not to mention the animals that we eat that we know are conscious. So we're gonna start worrying about the computers? That seems like our priorities are screwed up.
On the sentience of plants
Plants can see, which is a weird idea. There's a certain vine that can actually change its leaf form to mimic the plant it's twining around. How does it know what that leaf form is? Plants can hear. If you play the sound of chomping caterpillars on a leaf, they will produce chemicals to repel those caterpillars and to convey, to alert other plants in the vicinity. Plants have memory. You can teach them something and they'll remember it for 28 days.
Plants can communicate and respond to touch. Does that mean they're intelligent?
And plants can be anesthetized. I thought this was particularly mind blowing. So I'm thinking of a plant like the sensitive plant, Mimosa pudica, that if you touch it, it collapses its leaves, or a carnivorous plant that eats bugs that cross its threshold. You can anesthetize them and they won't do anything. So the fact that they have two states of being is very suggestive of something like consciousness.
On losing time to let our mind wander
I worry, too, that with media, with our technologies, we are shrinking the space in which spontaneous thought can occur. And that this space of ... spontaneous thought is something precious that we're giving away to these corporations that essentially want to monetize our attention, and in the case of chatbots, want to monetize our attachments, our deep human attachments. So consciousness is, I think — and this is what to me is the urgency of the issue — consciousness is under siege. I think that it's the last frontier for some of these companies that want to sell our time.
On our paradoxical ideas about the self
What's interesting and paradoxical about the self is that we preach the values of self-assurance and self-confidence and having a strong sense of self. We want our kids to have that. On the other hand, we spend a lot of time trying to escape the self, to transcend it, whether it's through sports or experiences of art, going to the movies or psychedelics or meditation. So we have very mixed feelings about the self. I think because the self separates us. The ego is a defensive structure. It builds walls. And when those walls come down or even just [are] lowered, we can connect to other people, to art, to nature, to the divine in some cases.
There were many moments of despair in the process of reporting and writing this book. It took me five years, and there were many times where [I told my wife] "I've dug a hole here, and I don't know how I'm ever going to get out of it." And some of it had to do with mounting frustration with the science, and some of it had to do with the fact that I had this classic male problem/solution Western frame — that there was a problem and I was going to find the solution.
It took my wife, in part, and [Zen Buddhist teacher] Joan Halifax and some other people, who got me to question that and [they] said, "Yeah, there is the problem of consciousness, but there's also the fact of it, and the fact is wondrous. The fact is miraculous. And you've put all this energy into this narrow beam of attention. Why don't you open that beam up further and just explore the phenomenon that is going on in your head, which is so precious and so beautiful." And that's kind of where I came out — and it's certainly not where I expected to come out.
Anna Bauman and Susan Nyakundi produced and edited this interview for broadcast. Bridget Bentz, Molly Seavy-Nesper and Beth Novey adapted it for the web.
Wednesday, February 18, 2026
President Day
Sunday, February 15, 2026
Bài thơ XUÂN VÃN của Điều Ngự Giác Hoàng - Trần Nhân Tông
Bài thơ XUÂN VÃN của Điều Ngự Giác Hoàng - Trần Nhân Tông
Thích Thông Huệ
Vua Trần Nhân Tông là một minh quân đời thứ 3 triều Trần. Từ lúc còn là Thái Tử, Ngài đã được vua cha cho học Thiền cùng Tuệ Trung Thượng Sĩ, biết rõ đường lối tu hành theo tông chỉ “Phản quan tự kỷ bổn phận sự, bất tùng tha đắc” (Xoay lại soi sáng chính mình là phận sự gốc, không cầu bên ngoài mà được). Khi lên ngôi, dù bộn bề trăm việc đối nội và đối ngoại, Ngài vẫn có chỗ sống riêng của mình, tuy ở trong trần mà vẫn vui với Đạo. Năm 41 tuổi, Ngài nhường ngôi cho con, sau đó xuất gia về núi Yên Tử, lấy hiệu Hương Vân Đại đầu đà, được tôn xưng là Điều Ngự Giác Hoàng. Ngài sáng lập dòng Thiền Trúc Lâm Yên Tử mang đậm bản sắc dân tộc, trở thành vị Sơ Tổ của dòng Thiền đặc thù Việt Nam . Bài thơ “Xuân vãn” là một trong những bài mượn cảnh mùa xuân, diễn đạt một cách sâu sắc trình độ tâm linh vút cao của Ngài:
XUÂN VÃN
Niên thiếu hà tằng liễu sắc không,
Nhất xuân tâm sự bách hoa trung.
Như kim khám phá Đông hoàng diện,
Thiền bản, bồ đoàn khán trụy hồng
Hòa thượng Trúc Lâm dịch:
CUỐI XUÂN
Thuở bé chưa từng rõ sắc không,
Xuân về hoa nở rộn trong lòng.
Chúa Xuân nay bị ta khám phá,
Thiền bản, bồ đoàn, ngắm cánh hồng.
Bài thơ tứ tuyệt ngắn ngủi nhưng bao hàm cả hai giai đoạn đời Ngài: lúc còn bé chưa biết đường tu và khi đã là vị Thiền Sư đạt đạo.
“Thuở bé chưa từng rõ sắc không / Xuân về hoa nở rộn trong lòng”: Thuở bé là lúc còn non tuổi đời, cũng là khi còn ấu thơ về đạo lý. Nhân một ngày xuân đi dạo trong vườn thượng uyển, Thái Tử thấy trăm hoa đua nở tỏa hương ngào ngạt. Chưa thấu hiểu lý Bát Nhã, chưa rõ thể tánh không của các pháp, Thái Tử ngỡ thân tâm cảnh đều thật có. Ý thức chấp ngã chấp pháp mạnh mẽ, nhất là trong điều kiện thuận lợi về vật chất, Ngài làm sao tránh khỏi rộn ràng xao xuyến khi thấy cảnh xuân về? Và đây hầu như là tâm trạng chung của con người, nhất là những ai có tâm hồn nghệ sĩ. Nhà thơ Đinh Hùng nhìn xuân sang mà nhớ hương người xưa:
Xuân nào như xuân mới?
Hương nào như hương xưa?
Lòng chàng không có tuổi
Duyên chàng se tình cờ.
hay J. Leiba nói thay cô gái tuổi trăng tròn:
Em nhớ năm em lên mười lăm,
Cũng ngày đông cuối sắp sang xuân.
Mừng xuân, em thấy tim hồi hộp,
Nhìn cái xuân sang khác mọi lần.
Tập khí của chúng ta là dính mắc với trần cảnh, loạn động theo các duyên bên ngoài. Từ đó tạo nghiệp, quẩn quanh trong sáu nẻo luân hồi. Đức Phật dạy, chính sáu căn là đầu mối của phiền não sinnh tử, do tiếp xúc với sáu trần mà khởi tâm phân biệt. Nhưng sáu căn cũng là nguồn gốc của Niết bàn, khi thấy nghe hay biết tất cả các pháp mà vẫn an nhiên tự tại. Thời điểm chợt nhận ra tánh giác thường hằng của chính mình là khoảnh khắc diệu thường, ngàn năm không dễ có. Những bậc đạt đạo dùng rất nhiều mỹ từ tạm đặt tên cho tánh giác sẵn đủ ấy, vì thật sự nó không có tên, cũng không thể dùng ngôn từ diễn tả. Ở đây, Sơ Tổ Điều Ngự gọi là Chúa Xuân. “Chúa Xuân nay bị ta khám phá”. Thật ra, Chúa Xuân không lẫn tránh, không giấu mặt, cũng không phải ở đâu xa. Chỉ vì vọng thức che lấp nên không nhận ra tánh giác lúc nào cũng sáng ngời.
Mai Hoa Ni đời Tống viết bài thơ Ngộ đạo như sau:
Tìm Xuân, chẳng thấy bóng xuân sang,
Giày rơm giẫm nát đỉnh mây ngàn.
Trở về chợt ngửi hương mai ngát,
Xuân ở đầu cành đã chứa chan.
(Đỗ Tùng Bách dịch)
Một đời lặn lội, mòn mỏi những bước chân giẫm nát cỏ cây trên đỉnh núi mây phủ, thế mà vẫn chưa tìm thấy mùa xuân. Chính vì ý tưởng “tìm xuân” nên xuân không thể hiện. Chúa Xuân không ở bên ngoài, không phải là đối tượng của sự tìm cầu, mà chính là mình - con người bất sanh bất diệt xưa nay. Sực tỉnh xoay trở về chính mình, ta mới nhận ra, quả thật xuân đang trùm khắp vạn hữu, mai đang tỏa ngát mùi hương.!
Sơ Tổ của chúng ta không những đã trở về, đã khám phá Chúa Xuân, Ngài còn trọn vẹn sống cùng mùa Xuân miên viễn:
“Thiền bản, bồ đoàn, ngắm cánh hồng”.
Thiền bản là chiếc chõng hay giường nhỏ, bồ đoàn là chiếc gối tròn để ngồi. Đây là hai dụng cụ sử dụng khi tọa thiền. Giường hay chõng thiền còn ám chỉ chân tánh hay bản tâm của mỗi người. Ngồi trên giường Thiền nghĩa là hằng sống cùng bản tâm sẵn đủ. Bản tâm thường tịch nhưng thường tri, luôn lặng lẽ mà luôn chiếu sáng. Định của bản tâm không trụ không xả, không nhập không xuất nên là thường định, đại định. Tinh thần Bồ tát Đại thừa không bỏ huyễn cầu chơn, không bỏ mê về ngộ, không bỏ trần gian thủ chứng Niết bàn. Trong các cảnh vô thường sinh diệt, các bậc đạt đạo nhận ra và sống bằng thể tánh chân thường bất sinh, nên có cái nhìn thẩm thấu vào bản chất của các pháp. Do vậy, các Ngài tự tại anh nhiên trước sự biến đổi của vũ trụ vạn hữu, nên nói “ngồi trên giường Thiền ngắm từng cánh hoa rụng trong một chiều xuân vãn”.
Cùng một cảnh xuân nhưng lúc mê thì tâm loạn động, dính mắc theo cảnh, khi ngộ thì an nhiên nhìn mọi sự đổi dời. Xuân đời đến rồi đi, hoa theo xuân nở rồi tàn, nhưng Chúa Xuân mãi hiện hữu, siêu vượt thời - không. Mùa Xuân miên viễn ấy không ở đâu xa, không từ bên ngoài đến, mà ở ngay đương xứ - tại đây và bây giờ. Cầu chúc tất cả chúng ta, nhân mùa xuân đến, nhận ra Chúa - Xuân - tự - tâm của chính mình, đồng thời chan rải hương xuân đến khắp mọi người.
Mùa Xuân Kỷ Sửu - 2009
Thiền thất Viên Giác
Người gửi bài: Anh Huy
Nguồn: Thuvienhoasen.org
Phụ lục
Ngày bé nào đâu hiểu sắc không
Nên chi xuân đến rộn trong lòng
Nay khi biết rõ chân Xuân diện
Tĩnh lự nhìn hoa bông tuyết rơi
Nguyên Thuần tạm dịch
Saturday, February 14, 2026
The dark origins of Valentine's Day
https://www.npr.org/2011/02/14/133693152/the-dark-origins-of-valentines-day
The dark origins of Valentine's Day
Updated February 14, 20227:49 AM ET
By Arnie Seipel
Valentine's Day is a time to celebrate romance and love and kissy-face fealty. But the origins of this festival of candy and cupids are actually dark, bloody — and a bit muddled.
Though no one has pinpointed the exact origin of the holiday, one place to start is ancient Rome.
The Romans' celebrations were violent
https://media.npr.org/assets/img/2011/02/13/valentine_custom-824b9bb9861c966077c98c55b95e9bac4247e856.jpg?s=400&c=85&f=webp
A drawing depicts the death of St. Valentine — one of them, anyway. The Romans executed two men by that name on Feb. 14 of different years in the third century.
Hulton Archive/Getty Images
From Feb. 13 to 15, the Romans celebrated the feast of Lupercalia. The men sacrificed a goat and a dog, then whipped women with the hides of the animals they had just slain.
The Roman romantics "were drunk. They were naked," Noel Lenski, now a religious studies professor at Yale University, told NPR in 2011. Young women would line up for the men to hit them, Lenski said. They believed this would make them fertile.
The brutal fete included a matchmaking lottery in which young men drew the names of women from a jar. The couple would then be, um, coupled up for the duration of the festival — or longer, if the match was right.
The ancient Romans may also be responsible for the name of our modern day of love. Emperor Claudius II executed two men — both named Valentine — on Feb. 14 of different years in the third century. Their martyrdom was honored by the Catholic Church with the celebration of St. Valentine's Day.
As the holiday spread, it evolved
https://media.npr.org/assets/img/2011/02/11/shakespeare_vert-a37282e82e342b9a1c6bdc32a91cf7498bfca286.jpg?s=400&c=85&f=webp
William Shakespeare helped romanticize Valentine's Day in his work, and it gained popularity throughout Britain and the rest of Europe.
Perry-Castañeda Library, University of Texas
Later, Pope Gelasius I muddled things in the fifth century by combining St. Valentine's Day with Lupercalia to expel the pagan rituals. But the festival was more of a theatrical interpretation of what it had once been. Lenski added, "It was a little more of a drunken revel, but the Christians put clothes back on it. That didn't stop it from being a day of fertility and love."
Around the same time, the Normans celebrated Galatin's Day. Galatin meant "lover of women." That was likely confused with St. Valentine's Day at some point, in part because they sound alike.
As the years went on, the holiday grew sweeter. Chaucer and Shakespeare romanticized it in their work, and it gained popularity throughout Britain and the rest of Europe. Handmade paper cards became the tokens du jour in the Middle Ages.
Eventually, the tradition made its way to the New World. The Industrial Revolution ushered in factory-made cards in the 19th century. And in 1913, Hallmark Cards of Kansas City, Mo., began mass-producing valentines. February has not been the same since.
How we celebrate now
Today, the holiday is big business. But that commercialization has spoiled the day for many. Helen Fisher, a sociologist at Rutgers University, said we have only ourselves to blame.
"This isn't a command performance," she said. "If people didn't want to buy Hallmark cards, they would not be bought, and Hallmark would go out of business."
And so the celebration of Valentine's Day goes on, in varied ways. Many will break the bank buying jewelry and flowers for their beloveds. Some will celebrate in a SAD (that's Singles Awareness Day) way, dining alone and bingeing on self-gifted chocolates — while others will find a way to make peace with singlehood in a society that wants everyone to partner up.
Thursday, February 12, 2026
Hình ảnh ĐI BỘ VÌ HÒA BÌNH
Các hình ảnh của đoàn du tăng đi bộ từ Fort Worth, TX đến thủ đô Washington DC :
https://thuvienhoasen.org/p122a43437/di-bo-vi-hoa-binh
https://thuvienhoasen.org/p122a43481/walk-for-peace-thu-100-ngay-bbt-tvhs
https://www.youtube.com/watch?v=AAciRWyTCEI
3 DAYS LEFT: Buddhist Monks Global Meditation Invitation | Walk for Peace 2,300 Miles | Feb 11
https://www.youtube.com/watch?v=XHcJls0wqiQ
COMPLETE VIDEO: Buddhist monks' Walk for Peace arrives at Washington National Cathedral
https://thuvienhoasen.org/p122a43475/19-monks-walk-2-300-miles-across-america-without-saying-a-word
https://thuvienhoasen.org/images/file/M3W4GiBa3ggBAJBj/w800/wfp-12.jpg
https://thuvienhoasen.org/images/file/PBROIhta3ggBABEk/walk-for-peace.jpg
https://thuvienhoasen.org/images/file/2oeCIhta3ggBAJoN/walk-for-peace1.jpg
https://thuvienhoasen.org/images/file/6F25Ihta3ggBAAFn/walk-for-peace2.jpg
https://thuvienhoasen.org/images/file/o9HtIhta3ggBAAhP/walk-for-peace3.jpg
https://thuvienhoasen.org/images/file/CuMfIxta3ggBAJNn/walk-for-peace4.jpg
https://thuvienhoasen.org/images/file/ty9NIxta3ggBAOJv/walk-for-peace5.jpg
https://thuvienhoasen.org/images/file/DRp4Ixta3ggBADZP/walk-for-peace6.jpg
https://thuvienhoasen.org/images/file/7tu6Ixta3ggBAApO/walk-for-peace7.jpg
thuvienhoasen.org/images/file/7tu6Ixta3ggBAApO/walk-for-peace7.jpg"/>
https://thuvienhoasen.org/images/file/NHrsihVa3ggBAt0x/wfp-01.png
https://thuvienhoasen.org/images/file/sK9jixVa3ggBAupq/w800/wfp-02.png
https://thuvienhoasen.org/images/file/azPpixVa3ggBAt9N/w800/wfp-03.png
https://thuvienhoasen.org/images/file/nC1ljBVa3ggBAmZP/w800/wfp-04.png
https://thuvienhoasen.org/images/file/GGPcjBVa3ggBAs1c/w800/wfp-05.png
https://thuvienhoasen.org/images/file/X11YjRVa3ggBApwD/w800/wfp-06.png
https://thuvienhoasen.org/images/file/2kTBjRVa3ggBAgVF/w800/wfp-07.png
https://thuvienhoasen.org/images/file/p44sjhVa3ggBAs0X/wfp-08.png
Subscribe to:
Comments (Atom)


