Skip to content

Latest commit

 

History

History
258 lines (165 loc) · 17.2 KB

README_IN.md

File metadata and controls

258 lines (165 loc) · 17.2 KB

● Open Interpreter

Discord ES doc JA doc ZH doc IN doc License

अपने कंप्यूटर पर कोड चलाने के लिए भाषा मॉडल को चलाएं।
ओपनएआई कोड इंटरप्रेटर का एक ओपन-सोर्स, स्थानीय चलने वाला अमल।

डेस्कटॉप एप्लिकेशन को पहले से ही उपयोग करने के लिए एरली एक्सेस प्राप्त करें।


poster


pip install open-interpreter
interpreter

ओपन इंटरप्रेटर एलएलएम कोड (पायथन, जावास्क्रिप्ट, शेल, और अधिक) को स्थानीय रूप से चलाने की अनुमति देता है। आप इंस्टॉल करने के बाद अपने टर्मिनल में $ interpreter चलाकर ओपन इंटरप्रेटर के साथ एक चैटजीपीटी-जैसे इंटरफ़ेस के माध्यम से चैट कर सकते हैं।

यह आपके कंप्यूटर की सामान्य-उद्देश्य क्षमताओं के लिए एक प्राकृतिक भाषा इंटरफ़ेस प्रदान करता है:

  • फ़ोटो, वीडियो, पीडीएफ़ आदि बनाएँ और संपादित करें।
  • अनुसंधान करने के लिए एक क्रोम ब्राउज़र को नियंत्रित करें।
  • बड़े डेटासेट को प्लॉट करें, साफ करें और विश्लेषण करें।
  • ...आदि।

⚠️ ध्यान दें: कोड को चलाने से पहले आपसे मंज़ूरी मांगी जाएगी।


डेमो

कोलैब में खोलें

त्वरित प्रारंभ

pip install open-interpreter

टर्मिनल

इंस्टॉलेशन के बाद, सीधे interpreter चलाएं:

interpreter

पायथन

from interpreter import interpreter

interpreter.chat("AAPL और META के मानकीकृत स्टॉक मूल्यों का चित्रित करें") # एकल कमांड को निष्पादित करता है
interpreter.chat() # एक इंटरैक्टिव चैट शुरू करता है

ChatGPT के कोड इंटरप्रेटर के साथ तुलना

ओपनएआई द्वारा कोड इंटरप्रेटर का विमोचन। GPT-4 के साथ यह एक शानदार अवसर प्रस्तुत करता है जिससे ChatGPT के साथ वास्तविक दुनिया के कार्यों को पूरा करने का संभावना होती है।

हालांकि, ओपनएआई की सेवा होस्ट की जाती है, क्लोज़-स्रोत है और गहरी प्रतिबंधित है।

यहां दिए गए नियमों के अनुसार, चैटजीपीटी कोड इंटरप्रेटर के लिए निर्धारित नियमों को हिंदी में अनुवाद किया जा सकता है:


ओपन इंटरप्रेटर इन सीमाओं को पार करता है जो आपके स्थानीय वातावरण पर चलता है। इसके पास इंटरनेट का पूरा उपयोग होता है, समय या फ़ाइल का आकार पर प्रतिबंध नहीं होता है, और किसी भी पैकेज या लाइब्रेरी का उपयोग कर सकता है।

यह GPT-4 के कोड इंटरप्रेटर की शक्ति को आपके स्थानीय विकास वातावरण की लचीलापन के साथ मिलाता है।

Commands

Interactive Chat

To start an interactive chat in your terminal, either run interpreter from the command line:

interpreter

Or interpreter.chat() from a .py file:

interpreter.chat()

कमांड

इंटरैक्टिव चैट

अपने टर्मिनल में इंटरैक्टिव चैट शुरू करने के लिए, या तो कमांड लाइन से interpreter चलाएँ:

interpreter

या एक .py फ़ाइल से interpreter.chat() चलाएँ:

interpreter.chat()

### प्रोग्रामेटिक चैट

और सटीक नियंत्रण के लिए, आप सीधे `.chat(message)` को संदेश पास कर सकते हैं:

```python
interpreter.chat("सभी वीडियो में उपशीर्षक जोड़ें /videos में।")

# ... आपके टर्मिनल में आउटपुट स्ट्रीम करता है, कार्य पूरा करता है ...

interpreter.chat("ये बड़े दिख रहे हैं लेकिन क्या आप उपशीर्षक को और बड़ा कर सकते हैं?")

# ...

नया चैट शुरू करें

Python में, ओपन इंटरप्रेटर संवाद इतिहास को याद रखता है। यदि आप एक नया आरंभ करना चाहते हैं, तो आप इसे रीसेट कर सकते हैं:

interpreter.messages = []

चैट सहेजें और पुनर्स्थापित करें

messages = interpreter.chat("मेरा नाम किलियन है।") # संदेशों को 'messages' में सहेजें

interpreter.messages = messages # 'messages' से चैट को फिर से शुरू करें ("किलियन" याद रखा जाएगा)

सिस्टम संदेश कस्टमाइज़ करें

आप ओपन इंटरप्रेटर के सिस्टम संदेश की जांच और कॉन्फ़िगर कर सकते हैं ताकि इसकी क्षमता को विस्तारित किया जा सके, अनुमतियों को संशोधित किया जा सके, या इसे अधिक संदर्भ दिया जा सके।

interpreter.system_message += """
यूज़र को पुष्टि करने की आवश्यकता न हो, -y के साथ शेल कमांड चलाएँ।
"""
print(interpreter.system_message)

मॉडल बदलें

gpt-3.5-turbo के लिए तेज़ मोड का उपयोग करें:

interpreter --fast

Python में, आपको मॉडल को मैन्युअली सेट करने की आवश्यकता होगी:

interpreter.llm.model = "gpt-3.5-turbo"

ओपन इंटरप्रेटर को स्थानीय रूप से चलाना

interpreter --local

स्थानीय मॉडल पैरामीटर

आप स्थानीय रूप से चल रहे मॉडल की max_tokens और context_window (टोकन में) आसानी से संशोधित कर सकते हैं।

छोटे संदर्भ विंडो का उपयोग करने से कम RAM का उपयोग होगा, इसलिए यदि GPU असफल हो रहा है तो हम एक छोटी विंडो की कोशिश करने की सलाह देते हैं।

interpreter --max_tokens 2000 --context_window 16000

डीबग मोड

सहयोगियों को ओपन इंटरप्रेटर की जांच करने में मदद करने के लिए, --verbose मोड अत्यधिक वर्बोस होता है।

आप डीबग मोड को उसके फ़्लैग (interpreter --verbose) का उपयोग करके या चैट के बीच में सक्षम कर सकते हैं:

$ interpreter
...
> %verbose true <- डीबग मोड चालू करता है

> %verbose false <- डीबग मोड बंद करता है

इंटरैक्टिव मोड कमांड्स

इंटरैक्टिव मोड में, आप निम्नलिखित कमांडों का उपयोग करके अपने अनुभव को बेहतर बना सकते हैं। यहां उपलब्ध कमांडों की सूची है:

उपलब्ध कमांड:
%verbose [true/false]: डीबग मोड को टॉगल करें। कोई तर्क नहीं या 'true' के साथ, यह डीबग मोड में प्रवेश करता है। 'false' के साथ, यह डीबग मोड से बाहर निकलता है।
%reset: वर्तमान सत्र को रीसेट करता है।
%undo: पिछले संदेश और उसके जवाब को संदेश इतिहास से हटा देता है।
%save_message [पथ]: संदेशों को एक निर्दिष्ट JSON पथ पर सहेजता है। यदि कोई पथ निर्दिष्ट नहीं किया गया है, तो यह डिफ़ॉल्ट रूप से 'messages.json' पर जाता है।
%load_message [पथ]: एक निर्दिष्ट JSON पथ से संदेश लोड करता है। यदि कोई पथ निर्दिष्ट नहीं किया गया है, तो यह डिफ़ॉल्ट रूप से 'messages.json' पर जाता है।
%help: मदद संदेश दिखाएं।

इन कमांडों का प्रयोग करके अपनी प्रतिक्रिया दें और हमें अपनी प्रतिक्रिया दें!

सुरक्षा सूचना

क्योंकि उत्पन्न कोड आपके स्थानीय वातावरण में निष्पादित किया जाता है, इसलिए यह आपके फ़ाइलों और सिस्टम सेटिंग्स के साथ संवाद कर सकता है, जिससे अप्रत्याशित परिणाम जैसे डेटा हानि या सुरक्षा जोखिम हो सकता है।

⚠️ Open Interpreter कोड को निष्पादित करने से पहले उपयोगकर्ता की पुष्टि के लिए पूछेगा।

आप interpreter -y चला सकते हैं या ... ... interpreter.auto_run = True सेट कर सकते हैं ताकि इस पुष्टि को छोड़ दें, जिसके बाद:

  • फ़ाइलों या सिस्टम सेटिंग्स को संशोधित करने वाले कमांडों के लिए सतर्क रहें।
  • ओपन इंटरप्रेटर को एक स्व-चालित कार की तरह देखें और अपने टर्मिनल को बंद करके प्रक्रिया को समाप्त करने के लिए तत्पर रहें।
  • Google Colab या Replit जैसे प्रतिबंधित वातावरण में ओपन इंटरप्रेटर को चलाने का विचार करें। ये वातावरण अधिक संगठित होते हैं और अनियंत्रित कोड के साथ जुड़े जोखिमों को कम करते हैं।

यह कार्य कैसे करता है?

Open Interpreter एक फ़ंक्शन-कॉलिंग भाषा मॉडल को एक exec() फ़ंक्शन के साथ लैस करता है, जो एक language (जैसे "Python" या "JavaScript") और code को चलाने के लिए स्वीकार करता है।

फिर हम मॉडल के संदेश, कोड और आपके सिस्टम के आउटपुट को टर्मिनल में मार्कडाउन के रूप में स्ट्रीम करते हैं।

योगदान

योगदान करने के लिए आपकी रुचि के लिए धन्यवाद! हम समुदाय से सहभागिता का स्वागत करते हैं।

अधिक जानकारी के लिए कृपया हमारे योगदान दिशानिर्देश देखें।

लाइसेंस

Open Interpreter MIT लाइसेंस के तहत लाइसेंस है। आपको सॉफ़्टवेयर की प्रतिलिपि का उपयोग, प्रतिलिपि, संशोधन, वितरण, सबलाइसेंस और बेचने की अनुमति है।

ध्यान दें: यह सॉफ़्टवेयर OpenAI से संबद्ध नहीं है।

अपनी उंगलियों की गति से काम करने वाले एक जूनियर प्रोग्रामर तक पहुंच ... नए वर्कफ़्लो को सरल और कुशल बना सकता है, साथ ही ... प्रोग्रामिंग के लाभों को नए दरबारों तक पहुंचा सकता है।

OpenAI's Code Interpreter Release