हर हफ्ते, 230 मिलियन से अधिक लोग चैटजीपीटी से पूछें OpenAI के अनुसार, स्वास्थ्य और कल्याण सलाह के लिए। कंपनी कहते हैं कई लोग चैटबॉट को बीमा की भूलभुलैया से निपटने, कागजी कार्रवाई दाखिल करने और बेहतर स्व-वकील बनने में मदद करने के लिए एक “सहयोगी” के रूप में देखते हैं। बदले में, यह आशा करता है कि आप अपने निदान, दवाओं, परीक्षण परिणामों और अन्य निजी चिकित्सा जानकारी के विवरण के लिए इसके चैटबॉट पर भरोसा करेंगे। लेकिन चैटबॉट से बात करते समय आपको कुछ हद तक डॉक्टर के कार्यालय जैसा महसूस होना शुरू हो सकता है, लेकिन यह ऐसा नहीं है। टेक कंपनियाँ चिकित्सा प्रदाताओं के समान दायित्वों से बंधी नहीं हैं। विशेषज्ञ बताते हैं द वर्ज यह सावधानीपूर्वक विचार करना बुद्धिमानी होगी कि क्या आप अपने रिकॉर्ड सौंपना चाहते हैं।
स्वास्थ्य और कल्याण तेजी से एआई प्रयोगशालाओं के लिए एक प्रमुख युद्धक्षेत्र के रूप में उभर रहा है और यह इस बात के लिए एक प्रमुख परीक्षण है कि उपयोगकर्ता इन प्रणालियों का अपने जीवन में स्वागत करने के लिए कितने इच्छुक हैं। इस महीने उद्योग के दो सबसे बड़े खिलाड़ियों ने चिकित्सा क्षेत्र में खुलकर कदम बढ़ाया। ओपनएआई ने चैटजीपीटी हेल्थ जारी किया है, जो चैटजीपीटी के भीतर एक समर्पित टैब है, जिसे उपयोगकर्ताओं के लिए स्वास्थ्य संबंधी प्रश्न पूछने के लिए डिज़ाइन किया गया है, जो इसे अधिक सुरक्षित और वैयक्तिकृत वातावरण बताता है। anthropic हेल्थकेयर के लिए क्लाउड की शुरुआत कीयह एक “HIPAA-तैयार” उत्पाद है जिसका उपयोग अस्पतालों, स्वास्थ्य प्रदाताओं और उपभोक्ताओं द्वारा किया जा सकता है। (विशेष रूप से अनुपस्थित है Google, जिसका जेमिनी चैटबॉट दुनिया के सबसे सक्षम और व्यापक रूप से उपयोग किए जाने वाले AI टूल में से एक है, हालांकि कंपनी ने ऐसा किया था) की घोषणा डेवलपर्स के लिए इसके मेडजेम्मा मेडिकल एआई मॉडल का अपडेट।)
OpenAI सक्रिय रूप से उपयोगकर्ताओं को गहरी अंतर्दृष्टि के बदले चैटजीपीटी हेल्थ के साथ ऐप्पल हेल्थ, पेलोटन, वेट वॉचर्स और मायफिटनेसपाल जैसे ऐप्स से मेडिकल रिकॉर्ड, लैब परिणाम और स्वास्थ्य और कल्याण डेटा जैसी संवेदनशील जानकारी साझा करने के लिए प्रोत्साहित करता है। इसमें स्पष्ट रूप से कहा गया है कि उपयोगकर्ताओं के स्वास्थ्य डेटा को गोपनीय रखा जाएगा और एआई मॉडल को प्रशिक्षित करने के लिए इसका उपयोग नहीं किया जाएगा, और डेटा को सुरक्षित और निजी रखने के लिए कदम उठाए गए हैं। ओपनएआई का कहना है कि चैटजीपीटी स्वास्थ्य वार्तालाप भी ऐप के एक अलग हिस्से में आयोजित किए जाएंगे, जिसमें उपयोगकर्ता किसी भी समय स्वास्थ्य “यादों” को देख या हटा सकेंगे।
OpenAI का आश्वासन है कि यह उपयोगकर्ताओं के संवेदनशील डेटा को सुरक्षित रखेगा, कंपनी द्वारा ChatGPT हेल्थ के लगभग उसी समय सख्त सुरक्षा प्रोटोकॉल के साथ एक समान-लगने वाला उत्पाद लॉन्च करने से काफी हद तक मदद मिली है। हेल्थकेयर के लिए चैटजीपीटी नामक उपकरण व्यापक रेंज का हिस्सा है उत्पादों सीधे मरीजों के साथ काम करने वाले व्यवसायों, अस्पतालों और चिकित्सकों का समर्थन करने के लिए बेचा गया। ओपनएआई के सुझाए गए उपयोगों में नैदानिक पत्रों और डिस्चार्ज सारांशों का मसौदा तैयार करने जैसे प्रशासनिक कार्यों को सुव्यवस्थित करना और रोगियों की देखभाल में सुधार के लिए चिकित्सकों को नवीनतम चिकित्सा साक्ष्य एकत्र करने में मदद करना शामिल है। कंपनी द्वारा बेचे जाने वाले अन्य एंटरप्राइज़-ग्रेड उत्पादों के समान, सामान्य उपभोक्ताओं, विशेष रूप से मुफ़्त उपयोगकर्ताओं को दी जाने वाली सुरक्षा की तुलना में अधिक सुरक्षा उपलब्ध है, और OpenAI का कहना है कि उत्पादों को चिकित्सा क्षेत्र के लिए आवश्यक गोपनीयता दायित्वों का पालन करने के लिए डिज़ाइन किया गया है। समान नामों और लॉन्च की तारीखों को देखते हुए – हेल्थकेयर के लिए चैटजीपीटी की घोषणा चैटजीपीटी हेल्थ के अगले दिन की गई थी – दोनों को भ्रमित करना बहुत आसान है और मान लें कि उपभोक्ता-सामना वाले उत्पाद में अधिक चिकित्सकीय उन्मुख उत्पाद के समान सुरक्षा स्तर है। इस कहानी की रिपोर्टिंग करते समय मैंने जिन कई लोगों से बात की, उन्होंने ऐसा ही किया।
भले ही आप अपने डेटा की सुरक्षा के लिए किसी कंपनी की प्रतिज्ञा पर भरोसा करते हों… हो सकता है कि वह अपना मन बदल दे।
हालाँकि, हम जो भी सुरक्षा आश्वासन लेते हैं, वह निर्विवाद है। विशेषज्ञ बताते हैं कि चैटजीपीटी हेल्थ जैसे टूल के उपयोगकर्ताओं के पास अक्सर उपयोग और गोपनीयता नीतियों के उल्लंघन या अनधिकृत उपयोग के खिलाफ बहुत कम सुरक्षा होती है। द वर्ज. चूंकि अधिकांश राज्यों ने व्यापक गोपनीयता कानून नहीं बनाए हैं – और कोई व्यापक संघीय गोपनीयता कानून नहीं है – चैटजीपीटी हेल्थ जैसे एआई टूल के लिए डेटा सुरक्षा “काफी हद तक इस बात पर निर्भर करती है कि कंपनियां अपनी गोपनीयता नीतियों और उपयोग की शर्तों में क्या वादा करती हैं,” इलिनोइस विश्वविद्यालय अर्बाना-शैंपेन में कानून की प्रोफेसर सारा गेर्के कहती हैं।
भले ही आप अपने डेटा की सुरक्षा के लिए किसी कंपनी की प्रतिज्ञा पर भरोसा करते हैं – ओपनएआई का कहना है कि यह स्वास्थ्य डेटा को डिफ़ॉल्ट रूप से एन्क्रिप्ट करता है – यह बस अपना मन बदल सकता है। स्विट्जरलैंड में बेसल विश्वविद्यालय में डिजिटल स्वास्थ्य कानून के शोधकर्ता हन्ना वान कोल्फशूटेन बताते हैं, “हालांकि चैटजीपीटी अपने वर्तमान उपयोग की शर्तों में कहता है कि वे इस डेटा को गोपनीय रखेंगे और अपने मॉडलों को प्रशिक्षित करने के लिए इसका उपयोग नहीं करेंगे, आप कानून द्वारा संरक्षित नहीं हैं, और इसे समय के साथ उपयोग की शर्तों को बदलने की अनुमति है।” “आपको भरोसा करना होगा कि ChatGPT ऐसा नहीं करता है।” हार्वर्ड लॉ स्कूल में कानून के सहायक नैदानिक प्रोफेसर कार्मेल शाचर सहमत हैं: “बहुत सीमित सुरक्षा है। इसमें से कुछ उनका शब्द है, लेकिन वे हमेशा वापस जा सकते हैं और अपनी गोपनीयता प्रथाओं को बदल सकते हैं।”
शाचर का कहना है कि यह आश्वासन कि कोई उत्पाद स्वास्थ्य बीमा पोर्टेबिलिटी और जवाबदेही अधिनियम, या एचआईपीएए जैसे स्वास्थ्य देखभाल क्षेत्र को नियंत्रित करने वाले डेटा सुरक्षा कानूनों का अनुपालन करता है, भी ज्यादा आराम नहीं देना चाहिए। वह बताती हैं कि एक मार्गदर्शक के रूप में महान होते हुए भी, यदि स्वेच्छा से अनुपालन करने वाली कंपनी ऐसा करने में विफल रहती है, तो इसमें बहुत कम जोखिम है। स्वेच्छा से अनुपालन करना बाध्य होने के समान नहीं है। “HIPAA का महत्व यह है कि यदि आप गड़बड़ करते हैं, तो प्रवर्तन होता है।”
यही कारण है कि चिकित्सा एक अत्यंत विनियमित क्षेत्र है
यह सिर्फ गोपनीयता से कहीं अधिक है. एक कारण है कि चिकित्सा एक अत्यधिक विनियमित क्षेत्र है – त्रुटियां खतरनाक, यहां तक कि घातक भी हो सकती हैं। ऐसे उदाहरणों की कोई कमी नहीं है जो चैटबॉट्स को आत्मविश्वास से गलत या भ्रामक स्वास्थ्य जानकारी देते हुए दिखाते हैं, जैसे कि जब कोई आदमी एक दुर्लभ स्थिति विकसित हुई जब उन्होंने चैटजीपीटी से अपने आहार से नमक हटाने के बारे में पूछा और चैटबॉट ने उन्हें नमक की जगह सोडियम ब्रोमाइड लेने का सुझाव दिया, जो कि था ऐतिहासिक शामक के रूप में उपयोग किया जाता है। या जब Google के AI ओवरव्यूज़ ने अग्न्याशय के कैंसर से पीड़ित लोगों को उच्च वसा वाले खाद्य पदार्थों से बचने की गलत सलाह दी – जो उन्हें करना चाहिए उसके बिल्कुल विपरीत।
इसे संबोधित करने के लिए, ओपनएआई ने स्पष्ट रूप से कहा है कि उनका उपभोक्ता-सामना करने वाला उपकरण चिकित्सकों के साथ निकट सहयोग में उपयोग करने के लिए डिज़ाइन किया गया है और इसका उद्देश्य निदान और उपचार नहीं है। निदान और उपचार के लिए डिज़ाइन किए गए उपकरणों को चिकित्सा उपकरणों के रूप में नामित किया गया है और वे बहुत सख्त नियमों के अधीन हैं, जैसे कि वे काम करते हैं यह साबित करने के लिए नैदानिक परीक्षण और एक बार तैनात होने के बाद सुरक्षा निगरानी। हालाँकि OpenAI पूरी तरह से और खुले तौर पर जानता है कि ChatGPT के प्रमुख उपयोग के मामलों में से एक उपयोगकर्ताओं के स्वास्थ्य और कल्याण का समर्थन करना है – हर हफ्ते सलाह मांगने वाले 230 मिलियन लोगों को याद करें – कंपनी का दावा है कि यह एक चिकित्सा उपकरण के रूप में अभिप्रेत नहीं है जो नियामकों के साथ बहुत अधिक भार वहन करता है, गेर्के बताते हैं। वह कहती हैं, “निर्माता का घोषित इच्छित उपयोग चिकित्सा उपकरण वर्गीकरण में एक महत्वपूर्ण कारक है,” जिसका अर्थ है कि जो कंपनियां कहती हैं कि उपकरण चिकित्सा उपयोग के लिए नहीं हैं, वे बड़े पैमाने पर निगरानी से बच जाएंगी, भले ही उत्पादों का उपयोग चिकित्सा उद्देश्यों के लिए किया जा रहा हो। यह चैटबॉट्स जैसी प्रौद्योगिकी द्वारा उत्पन्न नियामक चुनौतियों को रेखांकित करता है।
अभी के लिए, कम से कम, यह अस्वीकरण चैटजीपीटी हेल्थ को खाद्य एवं औषधि प्रशासन जैसे नियामकों के दायरे से बाहर रखता है, लेकिन वैन कोल्फशूटेन का कहना है कि यह पूछना बिल्कुल उचित है कि क्या इस तरह के उपकरणों को वास्तव में एक चिकित्सा उपकरण के रूप में वर्गीकृत किया जाना चाहिए और इस तरह विनियमित किया जाना चाहिए या नहीं। वह बताती हैं कि यह देखना महत्वपूर्ण है कि इसका उपयोग कैसे किया जा रहा है, साथ ही कंपनी क्या कह रही है। उत्पाद की घोषणा करते समय, OpenAI ने सुझाव दिया कि लोग प्रयोगशाला परिणामों की व्याख्या करने, स्वास्थ्य व्यवहार को ट्रैक करने, या उपचार निर्णयों के माध्यम से तर्क करने में मदद करने के लिए ChatGPT हेल्थ का उपयोग कर सकते हैं। यदि कोई उत्पाद ऐसा कर रहा है, तो कोई तर्कसंगत तर्क दे सकता है कि यह चिकित्सा उपकरण की अमेरिकी परिभाषा के अंतर्गत आ सकता है, वह कहती हैं, यह सुझाव देते हुए कि यूरोप का मजबूत नियामक ढांचा इस क्षेत्र में अभी तक उपलब्ध नहीं होने का कारण हो सकता है।
“जब कोई सिस्टम वैयक्तिकृत महसूस करता है और उसमें अधिकार की आभा होती है, तो चिकित्सा अस्वीकरण आवश्यक रूप से सिस्टम में लोगों के विश्वास को चुनौती नहीं देगा।”
यह दावा करने के बावजूद कि चैटजीपीटी का उपयोग निदान या उपचार के लिए नहीं किया जाना चाहिए, ओपनएआई ने यह साबित करने के लिए काफी प्रयास किए हैं कि चैटजीपीटी एक सुंदर सक्षम चिकित्सक और उपयोगकर्ताओं को स्वास्थ्य संबंधी प्रश्नों के लिए इसे टैप करने के लिए प्रोत्साहित करें। जब कंपनी ने स्वास्थ्य को एक प्रमुख उपयोग के मामले के रूप में उजागर किया GPT-5 लॉन्च करनाऔर सीईओ सैम ऑल्टमैन भी एक कैंसर रोगी और उसके पति को आमंत्रित किया मंच पर इस बात पर चर्चा करने के लिए कि कैसे उपकरण ने उसे निदान को समझने में मदद की। कंपनी का कहना है कि वह चैटजीपीटी की चिकित्सा कौशल का मूल्यांकन उस बेंचमार्क के आधार पर करती है, जिसे उसने दर्जनों विशिष्टताओं में 260 से अधिक चिकित्सकों के साथ विकसित किया है। हेल्थबेंचहालाँकि, यह “परीक्षण करता है कि एआई मॉडल यथार्थवादी स्वास्थ्य परिदृश्यों में कितना अच्छा प्रदर्शन करते हैं”। आलोचक ध्यान दें यह बहुत पारदर्शी नहीं है. अन्य अध्ययन – अक्सर छोटे, सीमित, या कंपनी द्वारा ही चलाए जाते हैं – चैटजीपीटी की चिकित्सा क्षमता पर भी संकेत देते हैं, यह दिखाते हुए कि कुछ मामलों में यह हो सकता है मेडिकल लाइसेंसिंग परीक्षा उत्तीर्ण करें, मरीजों के साथ बेहतर संवाद करेंऔर बीमारी का निदान करने में डॉक्टरों से बेहतर प्रदर्शन करेंसाथ ही डॉक्टरों की मदद भी करते हैं कम गलतियाँ जब एक उपकरण के रूप में उपयोग किया जाता है।
वैन कोल्फशूटेन का कहना है कि चैटजीपीटी हेल्थ को स्वास्थ्य संबंधी जानकारी के एक आधिकारिक स्रोत के रूप में पेश करने के ओपनएआई के प्रयास किसी भी अस्वीकरण को कमजोर कर सकते हैं, जिसमें उपयोगकर्ताओं को चिकित्सा उद्देश्यों के लिए इसका उपयोग न करने के लिए कहना भी शामिल है। “जब कोई सिस्टम वैयक्तिकृत महसूस करता है और उसमें अधिकार की आभा होती है, तो चिकित्सा अस्वीकरण आवश्यक रूप से सिस्टम में लोगों के विश्वास को चुनौती नहीं देगा।”
ओपनएआई और एंथ्रोपिक जैसी कंपनियां उम्मीद कर रही हैं कि उन्हें वह भरोसा हासिल है क्योंकि वे एआई के लिए अगले बड़े बाजार के रूप में जिसे वे देखते हैं उसमें प्रमुखता हासिल करने की कोशिश कर रही हैं। आंकड़े दिखाते हैं कि कितने लोग पहले से ही स्वास्थ्य के लिए एआई चैटबॉट का उपयोग कर रहे हैं, यह सुझाव देता है कि वे किसी चीज़ पर हो सकते हैं, और यह दिया गया है गंभीर स्वास्थ्य असमानताएँ और कई लोगों को कठिनाइयों का सामना करना पड़ता है यहां तक कि बुनियादी देखभाल तक भी पहुंचयह एक अच्छी बात हो सकती है। कम से कम, यह हो सकता है, यदि वह भरोसा अच्छी तरह से स्थापित हो। हम स्वास्थ्य सेवा प्रदाताओं के साथ अपनी निजी जानकारी पर भरोसा करते हैं क्योंकि पेशे ने वह भरोसा अर्जित किया है। यह अभी तक स्पष्ट नहीं है कि तेजी से आगे बढ़ने और चीजों को तोड़ने की प्रतिष्ठा रखने वाले उद्योग ने समान कमाई की है या नहीं।