Sunday 4 March 2018

अनुकूलन के- व्यापार - प्रणालियों और विभागों


व्यापार प्रणालियों और पोर्टफोलियो का अनुकूलन। अनुच्छेद प्रशस्तियां 32. संदर्भ संदर्भ 5. शोध के अध्ययन ने ट्रेडिंग सिस्टम या पोर्टफोलियो निर्माण विधियों या बहु-एजेंट सिस्टम सेमेरेअनु एट अल 2012 अलग-अलग कुछ ट्रेडिंग सिस्टम पोर्टफोलियो मूडीयांड, लिज़होंग 1997, डिमप्स्टर, जोन्स 2001, लेकिन बहुत कुछ ने बड़े पैमाने पर व्यापार प्रणाली पोर्टफोलियो अनुकूलन समस्याओं को संबोधित किया है Perold 1984 बहु-एजेंट सिस्टम का उपयोग शायद ही कभी व्यापार में किया जाता है, हालांकि कभी-कभी उदाहरणों में आर्यो, डी कास्ट्रो 2011 पाया जा सकता है। बड़े पैमाने पर पोर्टफोलियो निर्माण कार्य हम छोटे व्यवसायों में बड़े कार्यों को विभाजित करके स्थायी अर्थव्यवस्था समस्याओं का विश्लेषण करते हैं और एक विकासशील फ़ीड-फोर्ड सिस्टम-आधारित दृष्टिकोण प्रदान करते हैं हमारे समाधान के लिए सैद्धांतिक औचित्य बहुआयामी निवेश कार्यों के बहुविविध सांख्यिकीय विश्लेषण, विशेषकर डेटा के बीच संबंधों पर आधारित है आकार, एल्गोरिथ्म जटिलता और पोर्टफोलियो इफ आईसीसीटी डायमेंटलिटी सैम्पल साइज समस्या को कम करने के लिए, एक बड़ा काम मद समानता क्लस्टरिंग के माध्यम से छोटे भागों में टूट गया है समूह को हल करने के लिए इसी प्रकार की समस्याएं छोटे समूहों को दी जाती हैं, हालांकि, कई पहलुओं में अलग-अलग बदलाव होते हैं छद्म यादृच्छिक रूप से गठित समूह एक बड़ी संख्या फीड-फॉरवर्ड निर्णय लेने वाले सिस्टम के मॉड्यूल का विकास उत्क्रांति तंत्र प्रत्येक एक ही कम समय अवधि के लिए सर्वोत्तम मॉड्यूल का संग्रह बनाता है अंतिम समाधान वैश्विक पैमाने पर आगे ले जाते हैं जहां एक मल्टीकाल्स लागत-संवेदनशील प्रतिेंद्र का उपयोग करके सबसे अच्छा मॉड्यूल का संग्रह चुना जाता है संग्रहित मॉड्यूल एक समान रूप से भारित दृष्टिकोण में अंतिम समाधान में मिलाया जाता है 1 एन पोर्टफोलियो, नैनल निर्णय लेने की दृष्टिकोण की प्रभावकारीता एक वित्तीय पोर्टफोलियो ऑप्टिमाइज़ेशन समस्या के माध्यम से प्रदर्शित की गई थी, जो वास्तविक दुनिया डेटा की पर्याप्त मात्रा में उत्पन्न हुई थी पोर्टफोलियो निर्माण के लिए, हमने 11,730 सिम्युलेटेड ट्रेडिंग रोबोट का प्रदर्शन डेटासेट 2003 से 2012 तक की अवधि को कवर करता है जब पर्यावरण परिवर्तन लगातार और बड़े पैमाने पर अप्रत्याशित वॉक-फॉरवर्ड और नमूने के प्रयोग से पता चलता है कि स्थायी अर्थव्यवस्था सिद्धांतों के आधार पर एक दृष्टिकोण बेंचमार्क तरीकों से बेहतर होता है और कम एजेंट प्रशिक्षण का इतिहास बदलती माहौल की अवधि में बेहतर परिणाम दर्शाता है। फुल-टेक्स्ट आलेख जनवरी 2014.Raudys Aistis Raudys Pabarkait. L Xu, 2003 स्टॉक रिटर्न की खनन अस्थायी संरचनाओं के नजरिए से वित्तीय पोर्टफोलियो का अनुकूलन, पी। पार्नेर और ए रोसेनफेल्ड में, एडीएस मशीन लर्निंग एंड डाटा माइनिंग इन पेटेंट रिकग्निशन - एमएलडीएम 2003, पीपी 266-275, एलएनएआई 2734, स्प्रिंगर वेरलाग वित्तीय विश्लेषण में अन्य बुनियादी समस्याओं की तरह, इष्टतम पोर्टफोलियो चयन समस्या कृत्रिम तंत्रिका नेटवर्क और मशीन सीखने के विषयों से शोधकर्ताओं के हमले के लिए लचीले थी .3456 तंत्रिका नेटवर्क दृष्टिकोण का उपयोग अनुकूलतम पैरामीटर को समय के साथ अनुकूल तरीके से सीखने की आवश्यकता है। अमूर्त सार तत्व अवतरण सार इस पत्र में, हम शुरूआत करना चाहते हैं कि हाल में विकसित आंकड़ों में से एक कैसे विकसित हुई तकनीक, अस्थायी कारक विश्लेषण टीएफए, जो मूल रूप से मध्यस्थ मूल्य निर्धारण सिद्धांत एपीटी के आगे के अध्ययन के लिए समर्पित है, वित्तीय में शोषण किया जा सकता है पोर्टफोलियो ऑप्टिमाइज़ेशन समस्या में वज़न का निर्धारण करने के लिए डेटा खनन इसके अलावा, हम एपीटी-आधारित शार्प अनुपात मैक्सिमाइज़ेशन तकनीक के कई रूपों का अध्ययन करते हैं जो पोर्टफोलियो की नकारात्मक पहलुओं और जोखिम की जरूरत के लिए तैयार उल्टा अस्थिरता का उपयोग करते हैं - साथ ही साथ आक्रामक लाभ - निवेशकों की मांग। पूर्ण-पाठ सम्मेलन पत्र जुलाई 2003. केई चुन चीू लेई जू। सभी बाजारों पर एमएस अनुपात के लिए धारण करने वाले समय के लयदार प्रतिगमन ने सह-सहानुभूति सह-कुशलता प्रदान की - 48 यह 1 और 4 के परिणाम के अनुरूप है जिसमें पता चला है कि आरआरएल प्रशिक्षण व्यापारियों को व्यापार आवृत्ति को कम करके उच्च लेनदेन लागत के लिए व्यापारियों को आदत डालती है एफएक्स के मामले में एमएस अनुपात कम होता है यह है कि प्रसार एक अपेक्षाकृत उच्च समान लेनदेन लागत है और हमें व्यापार आवृत्ति कम होने की उम्मीद करनी चाहिए। अमूर्त अवयव देखें ABSTRACT इस अध्ययन में आवर्ती सुदृढीकरण आरआरएल सीखने के माध्यम से प्रशिक्षित तंत्रिका नेटवर्क के साथ उच्च आवृत्ति मुद्रा व्यापार की जांच करता है हम एक छिपे हुए परत वाले नेटवर्क के साथ एकल परत नेटवर्क के प्रदर्शन की तुलना करते हैं और प्रदर्शन पर निश्चित सिस्टम पैरामीटर के प्रभाव की जांच करते हैं सामान्य तौर पर, हम निष्कर्ष है कि ट्रेडिंग सिस्टम प्रभावी हो सकता है, लेकिन प्रदर्शन विभिन्न मुद्रा बाजारों के लिए व्यापक रूप से भिन्न होता है और इस परिवर्तनशीलता को बाज़ार के साधारण आंकड़ों के द्वारा समझाया नहीं जा सकता। इसके अलावा, हम यह पाते हैं कि एकल परत नेटवर्क इस आवेदन में दो परत नेटवर्क को पीछे छोड़ देता है। 2003 अर्थव्यवस्था के तकनीकी और आर्थिक विकास। जॉन मूडी, मैथ्यू सैफेल 2001 द्वारा। हम पोर्टफोलियो, परिसंपत्ति आवंटन और ट्रेडिंग सिस्टम को अनुकूलित करने के लिए तरीकों को प्रस्तुत करते हैं, इस दृष्टिकोण में सीधी सुदृढीकरण डॉ पर आधारित है, निवेश निर्णय लेने को एक स्टेचैस्टक कंट्रोल समस्या के रूप में देखा जाता है, और रणनीतियों की खोज की जाती है हम एक विज्ञापन पेश करते हैं योग्य अनुपालन एल्गोरिथ्म जिसे बार-बार आरडब्ल्यूआर कहा जाता है। सीधे पोर्टफोलियो, परिसंपत्ति आवंटन और ट्रेडिंग प्रणालियों को अनुकूलित करने के लिए मौजूदा तरीकों को सीधे सुदृढीकरण के आधार पर डॉ। इस दृष्टिकोण में, निवेश निर्णय लेने को एक स्टेचैस्टक कंट्रोल समस्या के रूप में देखा जाता है, और रणनीतियों को सीधे खोजा जाता है हम एक अनुकूली एल्गोरिथम आवर्ती सुदृढीकरण निवेश नीतियों की खोज के लिए आरआरएल सीखना पूर्वानुमान मॉडल तैयार करने की आवश्यकता समाप्त हो जाती है, और बेहतर व्यापार प्रदर्शन प्राप्त होता है प्रत्यक्ष प्रवर्तन दृष्टिकोण गतिशील प्रोग्रामिंग और सुदृढीकरण एल्गोरिदम से भिन्न होता है जैसे कि टीडी-लर्निंग और क्यू-लर्निंग, जो कि मूल्य का अनुमान लगाने का प्रयास करता है नियंत्रण की समस्या के लिए कार्य हम पाते हैं कि आरआरएल प्रत्यक्ष पुनर्संरचना ढांचे एक सरल समस्या का प्रतिनिधित्व करता है, बैलेंमन एपोस अभिशाप को मंदता का त्याग देता है और दक्षता में मजबूर फायदे प्रदान करता है हम यह दर्शाते हैं कि प्रत्यक्ष सुदृढीकरण का इस्तेमाल जोखिम-समायोजित निवेश रिटर्न को अनुकूलित करने के लिए किया जा सकता है, जिसमें अंतर लेन-देन लागत के प्रभावों के लिए लेखांकन, वास्तविक वित्तीय डेटा का उपयोग करते हुए व्यापक सिमुलेशन कार्य में, हम पाते हैं कि आरएलएल पर आधारित हमारी दृष्टिकोण Q - सीखना एक मूल्य समारोह पद्धति का उपयोग करने वाली प्रणालियों की तुलना में बेहतर व्यापारिक रणनीतियों का उत्पादन करती है वास्तविक-विश्व अनुप्रयोगों में एक अंतर - दैनिक मुद्रा व्यापारी और एस एम्पीपी 500 स्टॉक इंडेक्स और टी-बिल्स के लिए एक मासिक परिसंपत्ति आवंटन प्रणाली। ब्लेक लीबरॉन 1 99 8 द्वारा। यह पत्र विकास से जुड़ी तकनीक को जोड़ता है, विकासवादी अनुकूलन एल्गोरिदम पर बूटस्ट्रैप आधारित सांख्यिकीय परीक्षणों के साथ बूटस्ट्रैपिंग और क्रॉस सत्यापन का उपयोग किया जाता है प्रशिक्षण नमूना Evolu से सबसेट redrawing द्वारा नमूने के बाहर उद्देश्यों का आकलन करने के लिए एक सामान्य रूपरेखा के रूप में। इस पत्र में बूटस्ट्रैप आधारित सांख्यिकीय परीक्षण के साथ विकासवादी अनुकूलन एल्गोरिदम पर साहित्य से तैयार की तकनीक को जोड़ती है बूटस्ट्रैपिंग और पार सत्यापन उद्देश्यों के आकलन के लिए एक सामान्य रूपरेखा के रूप में उपयोग किया जाता है नमूने से बाहर एक tr से सबसेट redrawing द्वारा aining नमूना विकास का उपयोग संभावित नेटवर्क आर्किटेक्चर की बड़ी जगह के लिए किया जाता है इन दो विधियों के संयोजन एक नेटवर्क आकलन और चयन प्रक्रिया तैयार करते हैं जिसका उद्देश्य पारस्परिक नेटवर्क संरचनाओं को खोजना है जो अच्छी तरह से सामान्यताएं उदाहरण वित्तीय आंकड़ों से दिया जाता है जो दिखाता है कि यह कैसे और अधिक पारंपरिक मॉडल चयन पद्धतियां बूटस्ट्रैप पद्धति सामान्य कम से कम वर्गों की तुलना में अधिक सामान्य उद्देश्य कार्यों की अनुमति देती है क्योंकि यह किसी भी समारोह के लिए नमूना पूर्वाग्रह का अनुमान लगा सकता है इनमें से कुछ को पारंपरिक विदेशी मुद्रा श्रृंखला 1 1 के साथ गतिशील व्यापार सेटिंग में पारंपरिक कम से कम वर्ग आधारित अनुमानों के साथ तुलना की जाएगी। शिरानी 1994 3 शुरुआती नतीजे उन्हें हेनन डेटा लेबरून 1 99 7 का इस्तेमाल करते हुए सिम्युलेटेड टाइम सीरीज़ पूर्वानुमान में प्रभावी उपकरण साबित करने के लिए दिखाते हैं, 1 99 5, बेंगोओ 1997, चोई वेगेन्डे 1997, और मूडी वूगडे 1997 के हाल के पत्र - यहां स्पष्ट रूप से प्रेरणादायक हैं। ग्रेंजर पेसारा में अन्य हानि कार्यों के महत्व को पाया जा सकता है एन 1996 1स्ट्रैक्टीसी समय टी 1 होगा 1, 1 होगा। अमीर एफ एटिया, अलेक्जेंडर जी पारलोस - आईईईई ट्रांस नेल्सल नेशनल 2000। कैसे प्रभावी ढंग से फिर से आवृत नेटवर्क को प्रशिक्षित करना एक चुनौतीपूर्ण और सक्रिय शोध विषय है। प्रस्तावित प्रशिक्षण दृष्टिकोणों में से अधिकांश कम्प्यूटेशनल तरीके से त्रुटि फ़ंक्शन के ढाल को कुशलतापूर्वक प्राप्त करने के लिए, और आम तौर पर पांच प्रमुख समूहों में समूहीकृत किया जा सकता है इस अध्ययन में हम presen. How आवर्ती नेटवर्क कुशलतापूर्वक ट्रेन करने के लिए एक चुनौतीपूर्ण और सक्रिय शोध विषय बनी हुई है प्रस्तावित प्रशिक्षण दृष्टिकोणों के अधिकांश आधारित हैं कम्प्यूटेशनल तरीके से त्रुटि फ़ंक्शन के ढाल को कुशलतापूर्वक प्राप्त करने के लिए, और आम तौर पर पांच प्रमुख समूहों में बांटा जा सकता है इस अध्ययन में हम एक अभिव्यक्ति प्रस्तुत करते हैं जो इन तरीकों को एकजुट करती है हम दर्शाते हैं कि दृष्टिकोण एक विशेष मैट्रिक्स समीकरण को सुलझाने के केवल पांच अलग-अलग तरीके हैं इस पत्र का दूसरा लक्ष्य उपन्यास के निर्माण से प्राप्त अंतर्दृष्टि के आधार पर एक नया एल्गोरिथ्म विकसित करना है नई एल्गोरिथ एम, जो कि त्रुटि ढाल के अनुमान के आधार पर है, इसमें सबसे सामान्य समस्याओं के लिए प्रतिस्पर्धा की तकनीक की तुलना में वज़न अपडेट की गणना करने में कम कम्प्यूटेशनल जटिलता है इसके अतिरिक्त, यह छोटी-छोटी पुनरावृत्तियों में त्रुटि न्यूनतम तक पहुंचता है आवर्तक नेटवर्क प्रशिक्षण की एक वांछनीय विशेषता एल्गोरिदम एक ऑन लाइन फैशन में वज़न को अपडेट करने में सक्षम होने के लिए हमने प्रस्तावित एल्गोरिथम का ऑन-लाइन संस्करण भी विकसित किया है, जो कि रिकर्सिव तरीके से त्रुटि ग्रेडिएंट सन्निकटन को अपडेट करने पर आधारित है। थॉमस हेल्स्टम, केनेथ होल्मस्ट्रम 1999 इस पत्र का वर्णन है एटा, एक कृत्रिम स्टॉक ट्रेडिंग एजेंट, मैटलैब प्रोग्रामिंग माहौल में परियोजना का प्राथमिक उद्देश्य बहु-स्टॉक ट्रेडिंग एल्गोरिदम के विकास के लिए एक स्थिर और यथार्थवादी परीक्षण बेंच की आपूर्ति करना है एजेंट के व्यवहार को नियंत्रित किया जाता है उच्च स्तरीय शील। इस पत्र में एस्टा, एक कृत्रिम स्टॉक ट्रेडिंग एजेंट का वर्णन है, जो कि Matlab प्रोग्रामिंग माहौल में प्राथमिक उद्देश्य है। वह परियोजना मल्टी-स्टॉक ट्रेडिंग एल्गोरिदम के विकास के लिए एक स्थिर और यथार्थवादी टेस्ट बेंच की आपूर्ति करना है एजेंट के व्यवहार को उच्च-स्तरीय भाषा द्वारा नियंत्रित किया जाता है, जो उपयोगकर्ता द्वारा परिभाषित कार्यों से आसानी से बढ़ता है खरीद और बिक्री के नियम हो सकते हैं इंटरैक्टिव और विविध प्रकार की डेटा स्क्रीनिंग को आसानी से किया जा सकता है, सभी को Matlab m-file language syntax के अलावा। Haizhon ली, रॉबर्ट कोज्मा द्वारा - 2003 2003 में नेशनल नेटवर्क 2003 पर अंतर्राष्ट्रीय संयुक्त सम्मेलन की कार्यवाही। सार इस पत्र में केआईआईआई गतिशील तंत्रिका नेटवर्क पेश किया गया है और यह जटिल अस्थायी दृश्यों की भविष्यवाणी पर लागू होता है हमारे दृष्टिकोण में, केआईआईआई मुद्रा विनिमय दर में परिवर्तन की दिशा में एक कदम दर कदम भविष्यवाणी देता है पहले, विभिन्न मल्टीप्लेयर पेसेप्ट्रोन एमएलपी नेट। सार इस में पेपर, केआईआईआई गतिशील न्यूरल नेटवर्क पेश किया गया है और यह जटिल अस्थायी दृश्यों की भविष्यवाणी पर लागू होता है हमारे दृष्टिकोण में, केआईआईआई ने एक कदम दर कदम पूर्वानुमान दिया है मुद्रा विनिमय दर में परिवर्तन की दिशा पहले, कई मल्टीप्लेयर पेसेप्ट्रोन एमएलपी नेटवर्क और आवर्तक तंत्रिका नेटवर्क को सफलतापूर्वक कार्यान्वित किया गया है इस आवेदन के लिए केआईआईआई द्वारा प्राप्त परिणाम अन्य तरीकों के साथ अनुकूल तरीके से तुलना करते हैं I.7 उच्च शोर स्तर और गैर-स्थिर प्रकृति के लिए डेटा, वित्तीय पूर्वानुमान समय श्रृंखला पूर्वानुमान डोमेन में एक चुनौतीपूर्ण आवेदन है इस आवेदन में 4,5,6,7,9,10 विभिन्न तरीकों का उपयोग किया जाता है - - इस काम में, हम एक कदम दिशा की भविष्यवाणी करने के लिए KIII मॉडल का उपयोग करते हैं दैनिक मुद्रा विनिमय दर का हम जो डेटा इस्तेमाल करते हैं वह 4 से है। प्रयोग के परिणाम केआई द्वारा वर्गीकरण क्षमता निकोलस चपादोस, योशूआ बेंगियो - आईईईई न्यूरल नेटवर्क 2000 पर लेनदेन दिखाते हैं। हम सक्रिय-नियंत्रण के आधार पर एक परिसंपत्ति-आवंटन ढांचे का परिचय देते हैं। पोर्टफोलियो के मूल्य-पर-जोखिम इस रूपरेखा के भीतर, हम तंत्रिका नेटवर्क का उपयोग करके आवंटन बनाने के लिए दो मानदंडों की तुलना करते हैं पहले एक नेटवर्क का इस्तेमाल करता है एसेट वर्च के ईकाई, ए के साथ संयोजन में। हम पोर्टफोलियो के मूल्य-जोखिम के सक्रिय नियंत्रण के आधार पर परिसंपत्ति-आबंटन ढांचे का परिचय करते हैं, इस ढांचे के भीतर, हम तंत्रिका नेटवर्क का उपयोग करके आवंटन बनाने के लिए दो प्रतिमानों की तुलना करते हैं पहला पोर्टफोलियो के निर्माण के लिए एक पारंपरिक औसत-भिन्नता आवंटन के साथ-साथ परिसंपत्ति व्यवहार का पूर्वानुमान बनाने के लिए नेटवर्क का उपयोग करता है। दूसरा प्रतिमान सीधे पोर्टफोलियो आवंटन निर्णयों को सीधे बनाने के लिए नेटवर्क का उपयोग करता है हम नरम इनपुट वैरिएबल चयन करने के लिए एक विधि पर विचार करते हैं, और दिखाते हैं इसकी काफी उपयोगिता प्रशिक्षण के दौरान हम hyperparemeters की पसंद को व्यवस्थित करने के लिए मॉडल संयोजन समिति के तरीकों का प्रयोग करते हैं हम यह दिखाते हैं कि दोनों मानदंडों का उपयोग करने वाली समितियां बेंचमार्क मार्केट प्रदर्शन को बेहतर ढंग से मात दे रही हैं 1 परिचय वित्त अनुप्रयोगों में, प्रशिक्षण सीखने के एल्गोरिदम का विचार ब्याज की मानदंड के अनुसार सामान्य भविष्यवाणी कसौटी के बजाय लाभ के रूप में, गाई है हाल के वर्षों में I. criterion, ने हाल के वर्षों में रुचि अर्जित की है परिसंपत्ति-आवंटन कार्यों में, यह तंत्रिका नेटवर्क को प्रशिक्षण के लिए लागू किया गया है जो सीधे शार्प अनुपात या अन्य जोखिम-समायोजित लाभ उपायों - 1,3,10 - को अधिकतम करता है। एक ऐसा जोखिम उपाय जो हाल ही में काफी ध्यान दिया गया है वह पोर्टफोलियो का मूल्य-जोखिम वाला वीएआर है, जो आमतौर पर मापा जाने वाला अधिकतम राशि निर्धारित करता है जैसे पोर्टफोलियो। जॉन मूडी, यूफेंग लियू, मैथ्यू सैफ़ेल, क्यूंगजु यॉन-इन प्रोसिडिंग्स 2004 एएएआई पतन संगोष्ठी 2004 से आर्टिफिशियल मल्टीजेंट लर्निंग पेपर्स का। हम स्टेचस्टिक खिलाड़ियों के साथ स्टेचस्टिक खिलाड़ियों के साथ बार-बार मैट्रिक्स गेम्स की जांच करते हैं, स्टोचस्टिक डायरेक्ट रीफ़ॉर्मेशन एसडीआर पॉलिसी ढाल एल्गोरिदम एसडीआर की गतिशील, बहु-एजेंट इंटरैक्शन का अध्ययन करने के लिए एसडीआर आवर्ती सुदृढीकरण सीखने आरआरएल का एक सामान्यीकरण है जो स्टोचैस्टिक नीतियों का समर्थन करता है यू। हम स्टेचस्टिक खिलाड़ियों के साथ बार-बार मैट्रिक्स गेम्स की जांच करते हैं, जो गतिशील, मल्टी-एजेंट इंटरेस्ट स्टोचस्टिक डायरेक्ट रीफ़ोफॉर्ममेंट एसडीआर पॉलिसी ग्रेडियंट एल्गोरिदम का उपयोग करके अधिसूचना एसडीआर पुनरावर्ती सुदृढीकरण सीखना आरआरएल का सामान्यीकरण है जो स्टोचैस्टिक नीतियों का समर्थन करता है अन्य आरएल एल्गोरिदम के विपरीत, एसडीआर और आरआरएल आवर्तक नीति ग्रेडियेंट का इस्तेमाल करते हैं ताकि आवर्ती ढांचे के परिणामस्वरूप अस्थायी क्रेडिट असाइनमेंट को ठीक से संबोधित किया जा सके। पेपर 1 के लिए मानक, गैर-पुनरावर्ती मेमोरी से पॉलिसी ग्रेडियंट आरएल के लिए आवर्ती मेमोरी को अलग करना, 2 सरल गेम के लिए क्यू-टाइप लर्निंग विधियों के साथ एसडीआर की तुलना करना, 3 अंतर्जात गतिशील एजेंट व्यवहार से प्रतिक्रियाशील और 4 में अंतर जानने के लिए आवर्ती सीखने का उपयोग करना , गतिशील एजेंट हम पाते हैं कि एसडीआर खिलाड़ी बहुत तेज़ सीखते हैं और इसलिए सरल खेल रॉक, पेपर, कैंची आरपीएस के लिए हाल ही में प्रस्तावित क्यू-टाइप शिक्षार्थियों को अधिक जटिल, गतिशील एसडीआर खिलाड़ियों और विरोधियों के साथ बेहतर प्रदर्शन करते हैं, हम यह दर्शाते हैं कि आवर्तक प्रतिनिधित्व और एसडीआर के आवर्तक पॉलिसी ग्रेडियेंट गैर आवर्तक खिलाड़ियों की तुलना में बेहतर प्रदर्शन प्रदान करते हैं विचलित कैदियों की दुविधा, हम दिखाते हैं कि गैर-पुनरावर्तक एसडीआर एजेंट केवल नैश के संतुलन को दोषमुक्त करने के लिए सीखते हैं, जबकि पुनरावर्तक ग्रेडियंट्स के साथ एसडीआर एजेंट विभिन्न प्रकार के दिलचस्प व्यवहार सीख सकते हैं, सहयोग सहित 1.ईलिंग, क्यू-लर्निंग आसानी से बड़े राज्य या कार्य स्थान जो आमतौर पर अभ्यास में होते हैं डायरेक्ट सुदृढीकरण डॉ विधियों नीति ढाल और पॉलिसी खोज विलियम्स 1992 - मूडी वू 1997- मूडी एट अल 1 99 2 बैक्सटर बार्टलेट 2001 एनजी जॉर्डन 2000 नीतियों का स्पष्ट रूप से प्रतिनिधित्व करते हैं और आवश्यकता नहीं होती है कि मान की जानी चाहिए पॉलिसी ढाल के तरीकों से नीति में सुधार करना चाहते हैं। जॉन मूडी, मैथ्यू सैफेल द्वारा 1998 में केडीडी में। हम सुदृढीकरण सीखने के माध्यम से वित्तीय उद्देश्य कार्यों को अनुकूलित करके व्यापार प्रणालियों को प्रशिक्षित करने का प्रस्ताव देते हैं। , शार्प रेशियो और हमारे हाल ही में प्रस्तावित अंतर शार्प अनुपात मूडी W. We में ऑन लाइन सीखने के लिए ऑप्शन द्वारा ट्रेडिंग सिस्टम को प्रशिक्षित करने का प्रस्ताव देते हैं। सुदृढीकरण सीखने के माध्यम से वित्तीय उद्देश्य कार्यों को समय-निर्धारण करना मूल्य कार्यों के रूप में विचार किए जाने वाले निष्पादन कार्य लाभ या धन, शार्प अनुपात और मूडी एपी वु 1997 में ऑनलाइन सीखने के लिए हमारे हाल ही में प्रस्तावित अंतर शार्प अनुपात, हमने नियंत्रित अनुभवजन्य परिणाम प्रस्तुत किए उन प्रयोगों को जो कि सुदृढीकरण सीखने के लिए सीखने के लाभों को राक्षस ने प्रेरित किया था, यहां हम वास्तविक-पुन: आभासी सीखने वाले आरआरआरएल पर क्यू-लर्निंग की तुलना करने के लिए क्यू-लर्निंग की तुलना करने के लिए हमारे पूर्व कार्य का विस्तार करते हैं जो तत्काल इनाम हमारे सिमुलेशन को अधिकतम करता है नतीजे में मासिक रूप में अनुमान लगाने की शानदार उपस्थिति शामिल है। एन टावर्स, ए एन बर्गेस - कम्प्यूटेशनल फाइनेंस पर छठी अंतरराष्ट्रीय सम्मेलन की कम्प्यूटेशनल फाइनेंस प्रोसिडिंग्स। 1999 में इस पेपर में हम परिसंपत्ति मूल्य पूर्वानुमान वाले मॉडल के लिए व्यापारिक रणनीतियों को लागू करते हैं। पैरामीटरयुक्त निर्णय नियम हम जांच के लिए एक सिंथेटिक ट्रेडिंग वातावरण विकसित करते हैं भविष्यवाणी मॉडल को संशोधित करने और निर्णय नियम को संशोधित करने, लाभप्रदता के संदर्भ में रिश्तेदार प्रभाव, हम यह दिखाते हैं कि इस पत्र में हम पैरामीटरयुक्त फैसले के नियमों का उपयोग करते हुए परिसंपत्ति मूल्य पूर्वानुमान के मॉडल के लिए व्यापारिक रणनीतियों को लागू करते हैं। हम रिश्तेदार प्रभावों की जांच के लिए एक कृत्रिम व्यापार वातावरण विकसित करते हैं भविष्यवाणी मॉडल को संशोधित करने और निर्णय नियम को संशोधित करने, लाभप्रदता के संदर्भ में, हम यह दिखाते हैं कि व्यापारिक नियम के कार्यान्वयन के रूप में व्यापार प्रदर्शन के लिए महत्वपूर्ण हो सकता है क्योंकि भविष्यवाणी मॉडल की अनुमानित क्षमता हम इन तकनीकों को एक पूर्वानुमान मॉडल के उदाहरण के लिए लागू करते हैं इक्विटी इंडेक्स के परिणाम के अंतराल के उद्धृत उद्धरण दर से लेकर परिणाम बताते हैं कि फैसले के नियमों का अनुकूलन, व्यापार प्रदर्शन में काफी सुधार कर सकता है, साथ ही वार्षिक शार्प अनुपात में नौवीं व्यापारिक नियम पर दो से अधिक के एक कारक के साथ बढ़ रहा है। केवल पूर्वानुमान मॉडल के माध्यम से प्रदर्शन में वृद्धि के लिए 50 प्रतिशत की आवश्यकता होगी भविष्यवाणी की सटीकता में झुकाव 1 परिचय पिछले कुछ सालों में, अनुसंधान की एक पर्याप्त मात्रा में समर्पित किया गया है। पूर्वानुमान मॉडल का निर्माण और फिर, एक निर्णय चरण जो पूर्वानुमान की जानकारी को एक क्रिया में परिवर्तित करता है, जो इस मामले में, व्यापार को बदलता है स्थिति एक विकल्प के रूप में, मूडी इन -3 में - और चोई वेगेन्द इन 4 में, इन दो चरणों को एक में जोड़कर कार्यप्रणालियों के उदाहरण हैं ये ट्रेडिंग रणनीतियों दोनों मॉडल पर एक संयुक्त अनुकूलन का उपयोग करते हैं। इस पत्र में एएसटीए के कार्यान्वयन के बारे में बताया गया है, जो मटलाब भाषा में लिखा गया कृत्रिम स्टॉक ट्रेडिंग एजेंट है परियोजना का प्राथमिक उद्देश्य मल्टी-स्टॉक ट्रेडिंग एल्गोरिदम के विकास के लिए आसान-से-उपयोग के वातावरण प्रदान करना है। यह पत्र बताता है कि पीछे के सिद्धांत और एएसटीए के क्रियान्वयन, एक कृत्रिम स्टॉक ट्रेडिंग एजेंट जो मेटलैब भाषा में लिखा गया है परियोजना का प्राथमिक उद्देश्य प्रदान करना है एन टॉवर्स, एएन बर्गसे, 1998 द्वारा मल्टी-स्टॉक ट्रेडिंग एल्गोरिदम के विकास के लिए आसान-से-उपयोग वाला वातावरण। एक गतिशील व्यापारिक रणनीति के संदर्भ में, किसी भी पूर्वानुमानित मॉडल का अंतिम उद्देश्य उन क्रियाओं को चुनना है, जिनके परिणामस्वरूप ऑप्टिमाइज़ेशन व्यापार उद्देश्य इस पत्र में हम किसी उद्देश्य के लिए एक पैरामीटरयुक्त निर्णय नियम का उपयोग करते हुए एक उद्देश्य फ़ंक्शन को अनुकूलित करने के लिए एक पद्धति विकसित करते हैं। एक गतिशील व्यापारिक रणनीति के संदर्भ में, किसी भी पूर्वानुमानित मॉडल का अंतिम उद्देश्य उन कार्यों को चुनना है जो अनुकूलन व्यापारिक उद्देश्य के इस पत्र में हम एक अनुमानित मॉडल के लिए, एक पैरामीटरवार निर्णय नियम का उपयोग करते हुए एक उद्देश्य फ़ंक्शन को अनुकूलित करने के लिए एक पद्धति विकसित करते हैं, हम अलग-अलग निर्णय मापदंडों और पूर्वानुमान सटीकता के स्तर के लिए अपेक्षित व्यापार प्रदर्शन का अनुकरण करते हैं। फिर हम तकनीक को एक इक्विटी इंडेक्सेस के एक समूह के अंदर गलत स्पिरिंग का पूर्वानुमान मॉडल हम दिखाते हैं कि प्रस्तावित निर्णय नियम का अनुकूलन एक को बढ़ा सकता है एक निर्बाध फैसले शासन के आधार पर 1 7 के एक कारक द्वारा एनएनलाइज्ड शार्प अनुपात। जेई डॉनरनसोरो एड कृत्रिम न्यूरल नेटवर्क - आईसीएएनएन 2002, एलएनसीएस 2415 2002 में काई चुन ची, लेई जू -। एड्रेप्टिव पोर्टफोलियो मैनेजमेंट का अध्ययन तंत्रिका के साहित्य में किया गया है जाल और मशीन सीखना हाल ही में विकसित टेम्पोरल फैक्टर विश्लेषण टीएफए मॉडल मुख्य रूप से आर्बिट्रेज प्राइसिंग थ्योरी के आगे के अध्ययन के लिए लक्षित है। एपीटी पोर्टफोलियो मैन में संभावित अनुप्रयोगों में पाया जाता है। सार अनुकूली पोर्टफोलियो प्रबंधन का अध्ययन तंत्रिका जाल और मशीन सीखने के साहित्य में किया गया है हाल ही में विकसित किए गए टेम्पोरल फैक्टर विश्लेषण टीएफए मॉडल मुख्य रूप से आर्बिट्रेज प्राइसिंग थ्योरी के आगे के अध्ययन के लिए लक्षित है। एपीटी पोर्टफोलियो प्रबंधन में संभावित अनुप्रयोगों में पाया जाता है इस पत्र में, हम एटटी-आधारित पोर्टफोलियो प्रबंधन की श्रेष्ठता को रिटर्न-आधारित पोर्टफोलियो प्रबंधन 1 कृत्रिम तंत्रिका नेटवर्क के संदर्भ में पारंपरिक मार्कोविट्स के पोर्टफोलियो सिद्धांत 8। साहित्य में , 1, 2 - में प्रसिद्ध शार्प अनुपात 4 को अधिकतम करने के माध्यम से अनुकूली पोर्टफोलियो प्रबंधन का अध्ययन किया गया था - हालांकि, इस तरह के दृष्टिकोण वाइट को स्थिरता के रूप में मानते हैं या सुरक्षा रिटर्न पर सीधे निर्भर करते हैं हाल ही में, टेम्परल फैक्टर एनालिसिस टीएफए एक के साथ 5 द्वारा प्रस्तावित

No comments:

Post a Comment