बिग टेक के हैंडआउट्स पर ओपन-सोर्स एआई बूम बनाया गया है। कितने दिन चलेगा?

पिछले हफ्ते ए लीक मेमो Google के एक वरिष्ठ इंजीनियर ल्यूक सर्नौ द्वारा लिखे जाने की सूचना दी गई है, जो सिलिकॉन वैली में कई हफ्तों से फुसफुसा रहे होंगे: एक ओपन-सोर्स फ्री-फॉर-ऑल एआई पर बिग टेक की पकड़ को खतरे में डाल रहा है।
नए ओपन-सोर्स बड़े भाषा मॉडल—के विकल्प Google का बार्ड या ओपनएआई की चैटजीपीटी कि शोधकर्ता और ऐप डेवलपर अध्ययन कर सकते हैं, निर्माण कर सकते हैं और संशोधित कर सकते हैं—पिनाटा से कैंडी की तरह गिर रहे हैं। ये बड़ी फर्मों द्वारा बनाए गए सर्वश्रेष्ठ-इन-क्लास एआई मॉडल के छोटे, सस्ते संस्करण हैं जो (लगभग) प्रदर्शन में उनसे मेल खाते हैं – और वे मुफ्त में साझा किए जाते हैं।
Google जैसी कंपनियाँ—जो अपने वार्षिक उत्पाद शोकेस में खुलासा किया इस सप्ताह यह जनरेटिव एआई को हर चीज पर फेंक रहा है, जीमेल से लेकर फोटो तक मैप्स तक – वास्तविक प्रतिस्पर्धा को देखने के लिए अपने कंधों को देखने में बहुत व्यस्त थे, सर्नौ लिखते हैं: “जब हम झगड़ा कर रहे हैं, तो एक तीसरा गुट रहा है चुपचाप हमारा दोपहर का भोजन कर रहे हैं।
कई मायनों में यह अच्छी बात है। इन मॉडलों तक अधिक पहुंच ने नवाचार को चलाने में मदद की है – यह उनकी खामियों को पकड़ने में भी मदद कर सकता है। अगर केवल कुछ मेगा-रिच कंपनियां इस तकनीक को गेटकीप करें या यह तय करें कि इसका उपयोग कैसे किया जाए तो एआई पनपेगा नहीं।
लेकिन यह ओपन-सोर्स बूम अनिश्चित है। अधिकांश ओपन-सोर्स रिलीज़ अभी भी बड़ी फर्मों द्वारा गहरी जेब के साथ रखे गए विशाल मॉडल के कंधों पर खड़े हैं। यदि OpenAI और मेटा तय करते हैं कि वे दुकान बंद कर रहे हैं, तो बूमटाउन बैकवाटर बन सकता है।
उदाहरण के लिए, इनमें से कई मॉडल LLaMA के शीर्ष पर बनाए गए हैं, जो मेटा एआई द्वारा जारी एक ओपन-सोर्स बड़ा भाषा मॉडल है। अन्य ढेर नामक विशाल सार्वजनिक डेटा सेट का उपयोग करते हैं, जिसे ओपन-सोर्स गैर-लाभकारी EleutherAI द्वारा एक साथ रखा गया था। लेकिन EleutherAI केवल इसलिए मौजूद है क्योंकि OpenAI के खुलेपन का मतलब था कि कोडर्स का एक समूह रिवर्स-इंजीनियरिंग करने में सक्षम था कि कैसे जीपीटी-3 बनाया गया था, और फिर अपने खाली समय में अपना बनाया।
स्टेला बिडरमैन कहती हैं, “मेटा एआई ने वास्तव में बहुत अच्छा काम किया है और अनुसंधान समुदाय के लिए मॉडल जारी किया है, जो अपना समय एलुथेरएआई के बीच बांटती है, जहां वह कार्यकारी निदेशक और अनुसंधान प्रमुख हैं, और परामर्श फर्म बूज एलेन हैमिल्टन। Sernau भी, अपने Google मेमो में मेटा AI की महत्वपूर्ण भूमिका पर प्रकाश डालता है। (Google ने MIT टेक्नोलॉजी रिव्यू से पुष्टि की कि मेमो उसके एक कर्मचारी द्वारा लिखा गया था लेकिन ध्यान दें कि यह एक आधिकारिक रणनीति दस्तावेज़ नहीं है।)
वह सब बदल सकता है। ओपनएआई पहले से ही है अपनी पिछली खुली नीति को उलट रहा है प्रतिस्पर्धा के डर के कारण। और मेटा इस जोखिम पर अंकुश लगाना शुरू कर सकता है कि अपस्टार्ट अपने ओपन-सोर्स कोड के साथ अप्रिय चीजें करेंगे। बाहरी लोगों के लिए कोड खोलने के लिए मेटा एआई के प्रबंध निदेशक जोएल पिनेउ कहते हैं, “ईमानदारी से मुझे लगता है कि अभी यह करना सही है।” क्या यह वही रणनीति है जिसे हम अगले पांच सालों तक अपनाएंगे? मुझे नहीं पता, क्योंकि एआई इतनी तेजी से आगे बढ़ रहा है।”
यदि एक्सेस को बंद करने की प्रवृत्ति जारी रहती है, तो न केवल ओपन-सोर्स क्राउड कट जाएगा-बल्कि एआई सफलताओं की अगली पीढ़ी पूरी तरह से दुनिया की सबसे बड़ी, सबसे अमीर एआई प्रयोगशालाओं के हाथों में आ जाएगी।
एआई कैसे बनाया और इस्तेमाल किया जाता है इसका भविष्य एक चौराहे पर है।
ओपन-सोर्स बोनान्ज़ा
ओपन-सोर्स सॉफ्टवेयर दशकों से मौजूद है। इंटरनेट इसी पर चलता है। लेकिन शक्तिशाली मॉडल बनाने की लागत का मतलब था कि ओपन-सोर्स एआई ने एक साल पहले तक उड़ान नहीं भरी थी। यह तेजी से एक वरदान बन गया है।
पिछले कुछ हफ्तों को ही देखें। 25 मार्च को, हगिंग फेस, एक स्टार्टअप जो एआई के लिए मुफ्त और खुली पहुंच का चैंपियन है, ने नवंबर में ओपनएआई द्वारा जारी वायरल चैटबॉट, चैटजीपीटी के पहले ओपन-सोर्स विकल्प का अनावरण किया।
हगिंग फेस का चैटबॉट, हगिंगचैट, एक ओपन-सोर्स बड़े भाषा मॉडल के शीर्ष पर बनाया गया है, जिसे ओपन असिस्टेंट कहा जाता है, जिसे ओपन असिस्टेंट कहा जाता है, जिसे लगभग 13,000 स्वयंसेवकों की मदद से प्रशिक्षित किया गया था और एक महीने पहले जारी किया गया था। लेकिन खुला सहायक ही मेटा के LLaMA पर बनाया गया है।
और फिर StableLM है, एक ओपन-सोर्स लार्ज लैंग्वेज मॉडल जिसे 19 मार्च को Stability AI द्वारा रिलीज़ किया गया, हिट टेक्स्ट-टू-इमेज मॉडल के पीछे कंपनी स्थिर प्रसार. एक सप्ताह बाद, 28 मार्च को, Stability AI ने StableVicuna, StableLM का एक संस्करण जारी किया, जो—जैसे Open Assistant या HuggingChat—बातचीत के लिए अनुकूलित है। (GPT-4 के लिए स्थिरता के उत्तर के रूप में StableLM के बारे में सोचें और ChatGPT के लिए StableVicuna के उत्तर के रूप में सोचें।)
ये नए ओपन-सोर्स मॉडल पिछले कुछ महीनों में जारी किए गए अन्य मॉडल में शामिल हो गए हैं, जिनमें शामिल हैं अलपाका (स्टैनफोर्ड विश्वविद्यालय में एक टीम से), नादान (सॉफ्टवेयर फर्म डाटाब्रिक्स से), और सेरेब्रस-जीपीटी (एआई फर्म सेरेब्रस से)। इनमें से अधिकांश मॉडल LLaMA या डेटासेट और EleutherAI के मॉडल पर बनाए गए हैं; सेरेब्रस-जीपीटी डीपमाइंड द्वारा निर्धारित टेम्पलेट का अनुसरण करता है। आप शर्त लगा सकते हैं कि और आएंगे।
कुछ के लिए, ओपन-सोर्स सिद्धांत का मामला है। एआई के शोधकर्ता और यूट्यूबर यानिक किल्चर कहते हैं, “यह संवादात्मक एआई की शक्ति को सभी के लिए लाने के लिए एक वैश्विक समुदाय का प्रयास है … इसे कुछ बड़े निगमों के हाथों से निकालने के लिए।” ओपन असिस्टेंट का परिचय देने वाला वीडियो.
“हम ओपन सोर्स एआई के लिए लड़ाई कभी नहीं छोड़ेंगे,” ट्वीट किए पिछले महीने हगिंग फेस के कोफाउंडर जूलियन चौमोंड।
दूसरों के लिए यह लाभ की बात है। स्थिरता एआई चैटबॉट्स के साथ उसी चाल को दोहराने की उम्मीद करता है जिसे उसने छवियों के साथ खींचा: ईंधन और उसके उत्पादों का उपयोग करने वाले डेवलपर्स के बीच नवाचार के विस्फोट से लाभ। कंपनी की योजना उस नवाचार का सर्वश्रेष्ठ लेने और ग्राहकों की एक विस्तृत श्रृंखला के लिए कस्टम-निर्मित उत्पादों में वापस रोल करने की है। स्टैबिलिटी एआई के सीईओ इमाद मोस्ताक कहते हैं, “हम नवाचार को बढ़ावा देते हैं, और फिर हम चुनते हैं और चुनते हैं।” “यह दुनिया का सबसे अच्छा बिजनेस मॉडल है।”
किसी भी तरह, मुक्त और खुले बड़े भाषा मॉडल की बंपर फसल इस तकनीक को दुनिया भर के लाखों लोगों के हाथों में डालती है, जिससे कई लोगों को नए उपकरण बनाने और यह पता लगाने के लिए प्रेरणा मिलती है कि वे कैसे काम करते हैं। बिडरमैन कहते हैं, “वास्तव में पहले कभी इस तकनीक की तुलना में बहुत अधिक पहुंच है।”
फर्म फ्राइड फ्रैंक के एक वकील अमीर घवी कहते हैं, “इस तकनीक का उपयोग करने वाले लोगों की अविश्वसनीय संख्या स्पष्ट रूप से आश्चर्यजनक है,” स्टेबिलिटी एआई समेत कई जनरेटिव एआई कंपनियों का प्रतिनिधित्व करती है। “मुझे लगता है कि यह मानव रचनात्मकता का एक वसीयतनामा है, जो कि ओपन-सोर्स का संपूर्ण बिंदु है।”
पिघलने वाले जीपीयू
लेकिन बड़े भाषा मॉडल को खरोंच से प्रशिक्षित करना – उन्हें बनाने या संशोधित करने के बजाय – कठिन है। मोस्टाक कहते हैं, “यह अभी भी अधिकांश लोगों की पहुंच से बाहर है।” “हमने StableLM बनाने वाले GPU के समूह को पिघलाया है।”
स्थिरता एआई की पहली रिलीज, द टेक्स्ट-टू-इमेज मॉडल स्थिर प्रसार, साथ ही साथ काम किया—अगर इससे बेहतर नहीं—बंद समकक्ष जैसे Google के Imagen और OpenAI’s उसे दे. यह न केवल उपयोग करने के लिए स्वतंत्र था, बल्कि यह एक अच्छे होम कंप्यूटर पर भी चलता था। स्टेबल डिफ्यूजन ने पिछले साल छवि बनाने वाले एआई के आसपास ओपन-सोर्स विकास के विस्फोट को चिंगारी देने के लिए किसी भी अन्य मॉडल से अधिक किया।

एमआईटीआर | गेटी
हालांकि, इस बार, मोस्टैक उम्मीदों का प्रबंधन करना चाहता है: StableLM GPT-4 से मेल खाने के करीब नहीं आता है। “अभी भी बहुत काम है जिसे करने की आवश्यकता है,” वे कहते हैं। “यह स्थिर प्रसार की तरह नहीं है, जहां तुरंत आपके पास कुछ ऐसा है जो उपयोग करने योग्य है। भाषा मॉडल को प्रशिक्षित करना कठिन होता है।”
एक और मुद्दा यह है कि मॉडल जितना बड़ा हो जाता है उसे प्रशिक्षित करना कठिन होता है। यह कंप्यूटिंग शक्ति की लागत के नीचे नहीं है। बड़े मॉडलों के साथ प्रशिक्षण प्रक्रिया अधिक बार टूट जाती है और इसे फिर से शुरू करने की आवश्यकता होती है, जिससे उन मॉडलों का निर्माण और भी महंगा हो जाता है।
बिडरमैन कहते हैं, व्यवहार में उन मापदंडों की संख्या की ऊपरी सीमा होती है, जिन्हें अधिकांश समूह प्रशिक्षित कर सकते हैं। ऐसा इसलिए है क्योंकि बड़े मॉडलों को कई अलग-अलग जीपीयू में प्रशिक्षित किया जाना चाहिए, और सभी हार्डवेयर को एक साथ जोड़ना जटिल है। “उस पैमाने पर सफलतापूर्वक प्रशिक्षण मॉडल उच्च-प्रदर्शन कंप्यूटिंग अनुसंधान का एक बहुत नया क्षेत्र है,” वह कहती हैं।
तकनीकी प्रगति के रूप में सटीक संख्या बदलती है, लेकिन अभी बिडरमैन उस सीमा को लगभग 6 से 10 अरब पैरामीटर की सीमा में रखता है। (तुलना में, GPT-3 के 175 बिलियन पैरामीटर हैं; LLaMA के 65 बिलियन हैं।) यह सटीक सहसंबंध नहीं है, लेकिन सामान्य तौर पर, बड़े मॉडल बहुत बेहतर प्रदर्शन करते हैं।
बिडरमैन को उम्मीद है कि ओपन-सोर्स बड़े लैंग्वेज मॉडल के इर्द-गिर्द गतिविधि जारी रहेगी। लेकिन यह मूलभूत प्रौद्योगिकी को आगे बढ़ाने के बजाय कुछ मौजूदा पूर्व-प्रशिक्षित मॉडलों को विस्तारित करने या अपनाने पर केंद्रित होगा। “कुछ ही संगठन हैं जिन्होंने इन मॉडलों को पूर्व-प्रशिक्षित किया है, और मुझे उम्मीद है कि यह निकट भविष्य में इसी तरह रहेगा,” वह कहती हैं।
यही कारण है कि कई ओपन-सोर्स मॉडल LLaMA के शीर्ष पर बनाए गए हैं, जिसे मेटा एआई द्वारा स्क्रैच से प्रशिक्षित किया गया था, या एलुथेरएआई से रिलीज़ किया गया था, जो एक गैर-लाभकारी संस्था है जो ओपन-सोर्स तकनीक में अपने योगदान के लिए अद्वितीय है। बिडरमैन का कहना है कि वह इसके जैसे केवल एक अन्य समूह के बारे में जानती है- और वह चीन में है।
EleutherAI को OpenAI की बदौलत इसकी शुरुआत मिली। 2020 तक रिवाइंड करें और सैन फ्रांसिस्को-आधारित फर्म ने अभी-अभी एक नया मॉडल पेश किया है। बिडरमैन कहते हैं, “बहुत सारे लोगों के लिए बड़े पैमाने पर एआई के बारे में उनकी सोच में जीपीटी-3 एक बड़ा बदलाव था।” “इन मॉडलों से लोग क्या उम्मीद करते हैं, इसके संदर्भ में इसे अक्सर एक बौद्धिक प्रतिमान बदलाव के रूप में श्रेय दिया जाता है।”
इस नई तकनीक की क्षमता से उत्साहित, बिडरमैन और मुट्ठी भर अन्य शोधकर्ता इस बात की बेहतर समझ पाने के लिए मॉडल के साथ खेलना चाहते थे कि यह कैसे काम करता है। उन्होंने इसे दोहराने का फैसला किया।
OpenAI ने GPT-3 जारी नहीं किया था, लेकिन इसने इस बारे में पर्याप्त जानकारी साझा की कि इसे कैसे बनाया गया था ताकि बिडरमैन और उसके सहयोगियों को इसका पता चल सके। OpenAI के बाहर किसी ने भी पहले कभी इस तरह के मॉडल को प्रशिक्षित नहीं किया था, लेकिन यह महामारी के बीच में था, और टीम के पास करने के लिए बहुत कम था। बिडरमैन कहते हैं, “जब मैं शामिल हुआ तो मैं अपना काम कर रहा था और अपनी पत्नी के साथ बोर्ड गेम खेल रहा था।” “तो इसे सप्ताह में 10 या 20 घंटे समर्पित करना अपेक्षाकृत आसान था।”
उनका पहला कदम एक बड़े पैमाने पर नए डेटा सेट को एक साथ रखना था, जिसमें पाठ के अरबों मार्ग शामिल थे, जो कि OpenAI ने GPT-3 को प्रशिक्षित करने के लिए उपयोग किया था। EleutherAI ने अपने डेटासेट को पाइल कहा और इसे 2020 के अंत में मुफ्त में जारी किया।
EleutherAI ने तब इस डेटा सेट का उपयोग अपने पहले ओपन-सोर्स मॉडल को प्रशिक्षित करने के लिए किया था। EleutherAI प्रशिक्षित सबसे बड़े मॉडल में साढ़े तीन महीने लगे और इसे एक क्लाउड कंप्यूटिंग कंपनी द्वारा प्रायोजित किया गया था। “अगर हम इसके लिए अपनी जेब से भुगतान करते, तो हमें लगभग $ 400,000 का खर्च आता,” वह कहती हैं। “यह एक विश्वविद्यालय अनुसंधान समूह के लिए पूछने के लिए बहुत कुछ है।”
मदद के लिए हाथ
इन लागतों के कारण, मौजूदा मॉडलों के शीर्ष पर निर्माण करना कहीं अधिक आसान है। मेटा एआई का एलएएमए तेजी से कई नए ओपन-सोर्स प्रोजेक्ट्स के लिए शुरुआती बिंदु बन गया है। द्वारा स्थापित किए जाने के बाद से मेटा एआई ओपन-सोर्स डेवलपमेंट में झुक गया है यान लेकन एक दशक पहले। पिनेऊ कहते हैं, यह मानसिकता संस्कृति का हिस्सा है: “यह बहुत ही मुक्त बाजार है, ‘तेजी से आगे बढ़ें, चीजों का निर्माण करें’ दृष्टिकोण।”
Pineau लाभों पर स्पष्ट है। “यह वास्तव में उन लोगों की संख्या में विविधता लाती है जो प्रौद्योगिकी के विकास में योगदान कर सकते हैं,” वह कहती हैं। “इसका मतलब है कि न केवल शोधकर्ता या उद्यमी बल्कि नागरिक सरकारें और इन मॉडलों में दृश्यता हो सकती है।”
व्यापक ओपन-सोर्स समुदाय की तरह, पिनेउ और उनके सहयोगियों का मानना है कि पारदर्शिता आदर्श होनी चाहिए। “एक चीज जो मैं अपने शोधकर्ताओं को करने के लिए प्रेरित करती हूं, वह यह सोचकर एक परियोजना शुरू करती है कि आप ओपन-सोर्स करना चाहते हैं,” वह कहती हैं। “क्योंकि जब आप ऐसा करते हैं, तो आप किस डेटा का उपयोग करते हैं और आप मॉडल कैसे बनाते हैं, इसके संदर्भ में यह बहुत अधिक बार सेट करता है।”
लेकिन गंभीर जोखिम भी हैं। बड़े भाषा मॉडल गलत सूचना, पूर्वाग्रह और अभद्र भाषा उगलते हैं। उनका उपयोग बड़े पैमाने पर प्रचार या बिजली मैलवेयर कारखानों के उत्पादन के लिए किया जा सकता है। “आपको पारदर्शिता और सुरक्षा के बीच समझौता करना होगा,” पिनेउ कहते हैं।
मेटा एआई के लिए, ट्रेड-ऑफ का मतलब हो सकता है कि कुछ मॉडल बिल्कुल भी जारी नहीं होते हैं। उदाहरण के लिए, यदि पिनेउ की टीम ने फेसबुक उपयोगकर्ता डेटा पर एक मॉडल को प्रशिक्षित किया है, तो यह घर में रहेगा, क्योंकि आर निजी जानकारी के लीक होने का खतरा बहुत अधिक है। अन्यथा, टीम मॉडल को क्लिक-थ्रू लाइसेंस के साथ जारी कर सकती है जो निर्दिष्ट करती है कि इसका उपयोग केवल शोध उद्देश्यों के लिए किया जाना चाहिए।
LLaMA के लिए इसने यही दृष्टिकोण अपनाया। लेकिन इसके जारी होने के कुछ ही दिनों के भीतर, किसी ने पूरा मॉडल और इसे चलाने के निर्देश इंटरनेट फोरम 4chan पर पोस्ट कर दिए। “मुझे अभी भी लगता है कि यह इस विशेष मॉडल के लिए सही समझौता था,” पिनेउ कहते हैं। “लेकिन मैं निराश हूं कि लोग ऐसा करेंगे, क्योंकि इससे इन रिलीज को करना कठिन हो जाता है।”
“हमें मार्क से लेकर कंपनी के नेतृत्व से हमेशा मजबूत समर्थन मिला है [Zuckerberg] इस दृष्टिकोण के लिए, लेकिन यह आसानी से नहीं आता है,” वह कहती हैं।
मेटा एआई के लिए दांव ऊंचे हैं। वह कहती हैं, “जब आप एक बहुत बड़ी कंपनी की तुलना में बहुत छोटे स्टार्टअप होते हैं तो कुछ पागलपन करने की संभावित देनदारी बहुत कम होती है।” “अभी हम इन मॉडलों को हजारों व्यक्तियों के लिए जारी करते हैं, लेकिन अगर यह अधिक समस्याग्रस्त हो जाता है या हमें लगता है कि सुरक्षा जोखिम अधिक हैं, तो हम सर्कल को बंद कर देंगे और हम केवल ज्ञात अकादमिक भागीदारों को जारी करेंगे जिनके पास बहुत मजबूत साख है- गोपनीयता समझौतों या एनडीए के तहत जो उन्हें अनुसंधान उद्देश्यों के लिए भी मॉडल के साथ कुछ भी बनाने से रोकते हैं।
यदि ऐसा होता है, तो ओपन-सोर्स इकोसिस्टम के कई प्रिय पा सकते हैं कि मेटा एआई जो कुछ भी आगे रखता है, उस पर निर्माण करने का उनका लाइसेंस रद्द कर दिया गया है। LLaMA के बिना, अल्पाका, ओपन असिस्टेंट, या हगिंग चैट जैसे ओपन-सोर्स मॉडल लगभग उतने अच्छे नहीं होंगे। और ओपन-सोर्स इनोवेटर्स की अगली पीढ़ी को मौजूदा बैच में वह बढ़त नहीं मिलेगी, जो उनके पास थी।
संतुलन में
अन्य लोग इस ओपन-सोर्स फ्री-फॉर-ऑल के जोखिमों और पुरस्कारों को भी तौल रहे हैं।
लगभग उसी समय जब मेटा एआई ने एलएलएएमए जारी किया, हगिंग फेस ने एक गेटिंग तंत्र शुरू किया ताकि लोगों को कंपनी के प्लेटफॉर्म पर कई मॉडलों को डाउनलोड करने से पहले एक्सेस का अनुरोध करना चाहिए और स्वीकृत होना चाहिए। विचार उन लोगों तक पहुंच को प्रतिबंधित करना है जिनके पास वैध कारण है – जैसा कि हगिंग फेस द्वारा निर्धारित किया गया है – मॉडल पर हाथ रखने के लिए।
हगिंग फेस के मुख्य नैतिक वैज्ञानिक मार्गरेट मिशेल कहते हैं, “मैं एक ओपन-सोर्स इंजीलवादी नहीं हूं।” “मैं कारणों को देखता हूं कि क्यों बंद किया जा रहा है बहुत मायने रखता है।”
मिशेल गैर-सहमति वाले अश्लील साहित्य को शक्तिशाली मॉडल को व्यापक रूप से सुलभ बनाने के नकारात्मक पक्ष के एक उदाहरण के रूप में इंगित करता है। वह छवि बनाने वाली एआई के मुख्य उपयोगों में से एक है, वह कहती हैं।
मिचेल, जो पहले Google में काम करते थे और इसकी एथिकल एआई टीम को कोफाउंड करते थे, खेल के तनाव को समझते हैं। वह मेटा एआई के समान “जिम्मेदार लोकतंत्रीकरण” का समर्थन करती है, जहां मॉडल को नुकसान पहुंचाने या दुरुपयोग होने के संभावित जोखिम के अनुसार नियंत्रित तरीके से जारी किया जाता है। “मैं वास्तव में ओपन-सोर्स आदर्शों की सराहना करती हूं, लेकिन मुझे लगता है कि उत्तरदायित्व के लिए किसी प्रकार की तंत्र को स्थापित करना उपयोगी है,” वह कहती हैं।
OpenAI स्पिगोट को भी बंद कर रहा है। पिछले महीने जब इसने GPT-4 की घोषणा की, कंपनी के बड़े भाषा मॉडल का नया संस्करण जो ChatGPT को शक्ति प्रदान करता है, तकनीकी रिपोर्ट में एक हड़ताली वाक्य था: “प्रतिस्पर्धी परिदृश्य और GPT जैसे बड़े पैमाने के मॉडल के सुरक्षा निहितार्थ दोनों को देखते हुए- 4, इस रिपोर्ट में आर्किटेक्चर (मॉडल आकार सहित), हार्डवेयर, प्रशिक्षण कंप्यूट, डेटासेट निर्माण, प्रशिक्षण पद्धति, या समान के बारे में कोई और विवरण नहीं है।
ये नए प्रतिबंध आंशिक रूप से इस तथ्य से प्रेरित हैं कि OpenAI अब एक लाभ-संचालित कंपनी है जो Google की पसंद के साथ प्रतिस्पर्धा कर रही है। लेकिन वे हृदय परिवर्तन को भी दर्शाते हैं। कोफाउंडर और मुख्य वैज्ञानिक इल्या सुतस्केवर ने एक में कहा है द वर्ज के साथ साक्षात्कार कि अतीत में उनकी कंपनी का खुलापन एक गलती थी।
OpenAI की एक नीति शोधकर्ता संधिनी अग्रवाल कहती हैं कि OpenAI ने निश्चित रूप से रणनीतियों को स्थानांतरित कर दिया है, जब यह सार्वजनिक करने के लिए सुरक्षित नहीं है और सार्वजनिक करने के लिए सुरक्षित नहीं है: “पहले, अगर कुछ ओपन-सोर्स था तो शायद टिंकरर्स का एक छोटा समूह परवाह कर सकता था। अब सारा माहौल बदल गया है। ओपन-सोर्स वास्तव में विकास को गति दे सकता है और दौड़ को नीचे तक ले जा सकता है।
लेकिन यह हमेशा ऐसा नहीं था। यदि OpenAI ने तीन साल पहले GPT-3 के बारे में विवरण प्रकाशित करते समय ऐसा महसूस किया होता, तो कोई EleutherAI नहीं होता।
आज, EleutherAI ओपन-सोर्स इकोसिस्टम में एक महत्वपूर्ण भूमिका निभाता है। इसके बाद से इसने कई बड़े भाषा मॉडल बनाए हैं, और पाइल का उपयोग कई ओपन-सोर्स प्रोजेक्ट्स को प्रशिक्षित करने के लिए किया गया है, जिसमें स्टेबिलिटी एआई का स्टेबल एलएम (मोस्टाक एलुथेरएआई के बोर्ड पर है) शामिल है।
यदि OpenAI ने कम जानकारी साझा की होती तो इसमें से कुछ भी संभव नहीं होता। मेटा एआई की तरह, एलुथेरएआई ओपन-सोर्स इनोवेशन को काफी हद तक सक्षम बनाता है।
लेकिन GPT-4—और 5 और 6—लॉक डाउन के साथ, कुछ बड़ी कंपनियों के फिर से आने पर ओपन-सोर्स क्राउड को छेड़खानी के लिए छोड़ा जा सकता है। वे बेतहाशा नए संस्करण तैयार कर सकते हैं—शायद Google के कुछ उत्पादों के लिए खतरा भी बन सकते हैं। लेकिन वे पिछली पीढ़ी के मॉडलों के साथ अटके रहेंगे। वास्तविक प्रगति, अगली छलांग आगे, बंद दरवाजों के पीछे होगी।
क्या यह मायने रखता है? बड़ी टेक फर्मों के एक्सेस को बंद करने के प्रभाव के बारे में कोई कैसे सोचता है, और इसका ओपन-सोर्स पर क्या प्रभाव पड़ेगा, यह इस बात पर निर्भर करता है कि आप क्या सोचते हैं कि एआई कैसे बनाया जाना चाहिए और किसे बनाना चाहिए।
घवी कहते हैं, “एआई आने वाले दशकों में समाज को खुद को कैसे व्यवस्थित करता है, इसका चालक होने की संभावना है।” “मुझे लगता है कि कुछ लोगों के हाथों में शक्ति केंद्रित करने की तुलना में जांच और पारदर्शिता की एक व्यापक प्रणाली होना बेहतर है।”
बिडरमैन सहमत हैं: “मैं निश्चित रूप से नहीं सोचता कि किसी प्रकार की नैतिक आवश्यकता है कि हर कोई ओपन-सोर्स करता है,” वह कहती हैं। “लेकिन दिन के अंत में, इस तकनीक पर विकास करने वाले और शोध करने वाले लोगों का होना बहुत महत्वपूर्ण है, जो इसकी व्यावसायिक सफलता में वित्तीय रूप से निवेशित नहीं हैं।”
दूसरी ओर, OpenAI का दावा है कि यह सिर्फ इसे सुरक्षित खेल रहा है। OpenAI की ट्रस्ट और सुरक्षा टीमों के प्रमुख डेव विलनर कहते हैं, “ऐसा नहीं है कि हमें लगता है कि पारदर्शिता अच्छी नहीं है।” “यह अधिक है कि हम यह पता लगाने की कोशिश कर रहे हैं कि सुरक्षा के साथ पारदर्शिता को कैसे समेटना है। और जैसे-जैसे ये प्रौद्योगिकियां अधिक शक्तिशाली होती जाती हैं, व्यवहार में उन चीजों के बीच कुछ मात्रा में तनाव होता है।
विलनर कहते हैं, “एआई में बहुत सारे मानदंड और सोच शैक्षणिक अनुसंधान समुदायों द्वारा बनाई गई है, जो सहयोग और पारदर्शिता को महत्व देते हैं ताकि लोग एक-दूसरे के काम का निर्माण कर सकें।” “हो सकता है कि इस तकनीक के विकसित होते ही इसमें थोड़ा बदलाव करने की जरूरत हो।”