सैम ऑल्टमैन एआई के खतरों के बारे में चिंता करने के लिए किसी को काम पर रख रहा है

OpenAI एक नियुक्ति कर रहा है तैयारी प्रमुख. या, दूसरे शब्दों में, कोई ऐसा व्यक्ति जिसका प्राथमिक काम उन सभी तरीकों के बारे में सोचना है जिनसे एआई भयानक, भयानक रूप से गलत हो सकता है। में एक एक्स पर पोस्ट करेंसैम ऑल्टमैन ने यह स्वीकार करते हुए स्थिति की घोषणा की कि एआई मॉडल का तेजी से सुधार “कुछ वास्तविक चुनौतियां” पेश करता है। पोस्ट में विशेष रूप से लोगों के मानसिक स्वास्थ्य पर संभावित प्रभाव और एआई-संचालित साइबर सुरक्षा हथियारों के खतरों के बारे में बताया गया है।

नौकरी की सूची कहता है कि भूमिका निभाने वाला व्यक्ति इसके लिए ज़िम्मेदार होगा:

“गंभीर क्षति के नए जोखिम पैदा करने वाली सीमांत क्षमताओं पर नज़र रखना और तैयार करना। आप क्षमता मूल्यांकन, खतरे के मॉडल और शमन के निर्माण और समन्वय के लिए सीधे तौर पर जिम्मेदार नेता होंगे जो एक सुसंगत, कठोर और परिचालन रूप से स्केलेबल सुरक्षा पाइपलाइन बनाते हैं।”

ऑल्टमैन का यह भी कहना है कि, भविष्य में, यह व्यक्ति कंपनी की “तैयारी रूपरेखा” को क्रियान्वित करने, “जैविक क्षमताओं” की रिहाई के लिए एआई मॉडल को सुरक्षित करने और यहां तक ​​कि आत्म-सुधार प्रणालियों के लिए रेलिंग स्थापित करने के लिए जिम्मेदार होगा। उनका यह भी कहना है कि यह एक “तनावपूर्ण काम” होगा, जो कि कमतर लगता है।

Source link

Leave a Comment