डाउनलोड पीडीऍफ़
फ्रेशर्स के साथ-साथ अनुभवी डेवलपर के लिए साक्षात्कार में अक्सर प्रश्न पूछे जाते हैं।
1) Hadoop Map Reduce क्या है?
एक Hadoop क्लस्टर के समानांतर में बड़े डेटा सेट को संसाधित करने के लिए, Hadoop MapReduce ढांचे का उपयोग किया जाता है। डेटा विश्लेषण दो-चरण के नक्शे का उपयोग करता है और प्रक्रिया को कम करता है।
2) कैसे काम करता है?
MapReduce में, मैप चरण के दौरान, यह प्रत्येक दस्तावेज़ में शब्दों को गिनता है, जबकि कम चरण में यह संपूर्ण संग्रह के अनुसार दस्तावेज़ के अनुसार डेटा को एकत्रित करता है। मानचित्र चरण के दौरान, इनपुट डेटा को हडोप फ्रेमवर्क के समानांतर में चल रहे मानचित्र कार्यों द्वारा विश्लेषण के लिए विभाजन में विभाजित किया गया है।
3) बताएं कि MapReduce में क्या फेरबदल है?
वह प्रक्रिया जिसके द्वारा सिस्टम सॉर्ट करता है और मैप आउटपुट को रेड्यूसर में स्थानांतरित करता है क्योंकि इनपुट को फेरबदल के रूप में जाना जाता है
4) बताएं कि MapReduce Framework में कैश वितरित क्या है?
डिस्ट्रीब्यूटेड कैश, MapReduce ढांचे द्वारा प्रदान की गई एक महत्वपूर्ण विशेषता है। जब आप Hadoop क्लस्टर में सभी नोड्स में कुछ फ़ाइलों को साझा करना चाहते हैं, तो वितरित कैश का उपयोग किया जाता है। फ़ाइलें एक निष्पादन योग्य जार फ़ाइलें या साधारण गुण फ़ाइल हो सकती हैं।
5) बताइए Hadoop में NameNode क्या है?
Hadoop में NameNode नोड है, जहां Hadoop HDFS (Hadoop Distributed File File) में सभी फाइल लोकेशन की जानकारी रखता है। दूसरे शब्दों में, NameNode एक HDFS फ़ाइल सिस्टम का केंद्र बिंदु है। यह फाइल सिस्टम में सभी फाइलों का रिकॉर्ड रखता है और फाइल डेटा को क्लस्टर या कई मशीनों में ट्रैक करता है
६) बताइए क्या हैट्रेड में जॉबट्रैकर? हाडोप के बाद क्या कार्य हैं?
MapReduce नौकरियों को सबमिट करने और उन्हें ट्रैक करने के लिए Hadoop में, JobTracker का उपयोग किया जाता है। नौकरी ट्रैकर अपने स्वयं के JVM प्रक्रिया पर चलते हैं
नौकरी ट्रैकर Hadoop में निम्नलिखित कार्य करता है
- ग्राहक आवेदन नौकरी ट्रैकर को नौकरी प्रस्तुत करते हैं
- JobTracker डेटा स्थान निर्धारित करने के लिए नाम मोड में संचार करता है
- डेटा के पास या उपलब्ध स्लॉट के साथ JobTracker TaskTracker नोड्स का पता लगाता है
- चुने गए टास्कट्रैकर नोड्स पर, यह काम को प्रस्तुत करता है
- जब कोई कार्य विफल हो जाता है, तो जॉब ट्रैकर सूचित करता है और निर्णय लेता है कि तब क्या करना है।
- टास्कट्रैकर नोड्स की निगरानी जॉबट्रैक द्वारा की जाती है
7) बताएं कि HDFS में दिल की धड़कन क्या है?
हार्टबीट एक डेटा नोड और नाम नोड के बीच और सिग्नल ट्रैकर और जॉब ट्रैकर के बीच उपयोग किए जाने वाले सिग्नल को संदर्भित करता है, यदि नाम नोड या जॉब ट्रैकर सिग्नल का जवाब नहीं देता है, तो माना जाता है कि डेटा नोड या कार्य के साथ कुछ समस्याएं हैं ट्रैकर
) बताइए कि मैपरेड्यूस जॉब में आपको कॉम्बिनेटर क्या हैं और आपको कंबाइनर का उपयोग कब करना चाहिए?
MapReduce Program की कार्यक्षमता बढ़ाने के लिए, Combiners का उपयोग किया जाता है। कम्बाइनर की मदद से डेटा की मात्रा को कम किया जा सकता है जिसे रीड्यूसर को स्थानांतरित करने की आवश्यकता होती है। यदि निष्पादित किया गया ऑपरेशन सराहनीय और साहचर्यपूर्ण है तो आप अपने रेड्यूसर कोड का उपयोग कॉम्बिनेटर के रूप में कर सकते हैं। हैडॉप में कंबाइन के निष्पादन की गारंटी नहीं है
९) डेटा नोड के विफल होने पर क्या होता है?
जब एक डेटा नोड विफल रहता है
- जॉबट्रैकर और नामेनोड विफलता का पता लगाते हैं
- विफल नोड पर सभी कार्य पुन: शेड्यूल किए जाते हैं
- नमेनोड उपयोगकर्ता के डेटा को दूसरे नोड में दोहराता है
10) बताइए सट्टा निष्पादन क्या है?
सट्टा निष्पादन के दौरान Hadoop में, कुछ निश्चित डुप्लिकेट कार्यों को लॉन्च किया जाता है। एक अलग गुलाम नोड पर, एक ही नक्शे की कई प्रतियाँ या कार्य को घटाकर सट्टा निष्पादन का उपयोग करके निष्पादित किया जा सकता है। सरल शब्दों में, यदि किसी कार्य को पूरा करने में किसी विशेष ड्राइव को एक लंबा समय लग रहा है, तो Hadoop एक अन्य डिस्क पर एक डुप्लिकेट कार्य बनाएगा। एक डिस्क जो पहले कार्य को पूरा करती है उसे बरकरार रखा जाता है और डिस्क जो पहले खत्म नहीं होती है उसे मार दिया जाता है।
11) बताइए कि एक मैपर के मूल पैरामीटर क्या हैं?
एक मैपर के मूल पैरामीटर हैं
- LongWritable और पाठ
- पाठ और अंतरंग
12) बताएं कि MapReduce विभाजन का कार्य क्या है?
MapReduce पार्टीशनर का कार्य यह सुनिश्चित करना है कि एक ही कुंजी का सभी मान एक ही रिड्यूसर पर जाता है, जो अंततः रेड्यूसर पर मैप आउटपुट के वितरण में मदद करता है।
13) बताएं कि इनपुट स्प्लिट और एचडीएफएस ब्लॉक में क्या अंतर है?
डेटा के तार्किक विभाजन को स्प्लिट के रूप में जाना जाता है जबकि डेटा के एक भौतिक विभाजन को एचडीएफएस ब्लॉक के रूप में जाना जाता है
14) पाठ प्रारूप में क्या होता है?
पाठ इनपुट प्रारूप में, पाठ फ़ाइल में प्रत्येक पंक्ति एक रिकॉर्ड है। मान रेखा की सामग्री है जबकि कुंजी रेखा की बाइट ऑफसेट है। उदाहरण के लिए, कुंजी: लंबे समय तक चलने योग्य, मूल्य: पाठ
15) उल्लेख करें कि मुख्य कॉन्फ़िगरेशन पैरामीटर क्या हैं जो उपयोगकर्ता को MapReduce Job चलाने के लिए निर्दिष्ट करने की आवश्यकता है?
MapReduce ढांचे के उपयोगकर्ता को निर्दिष्ट करने की आवश्यकता है
- वितरित फ़ाइल सिस्टम में नौकरी का इनपुट स्थान
- वितरित फ़ाइल सिस्टम में नौकरी का आउटपुट स्थान
- इनपुट प्रारूप
- आउटपुट स्वरूप
- मानचित्र फ़ंक्शन वाले वर्ग
- कम समारोह वाले वर्ग
- JAR फ़ाइल जिसमें मैपर, रिड्यूसर और ड्राइवर वर्ग हैं
16) बताइए कि क्या वेबडाव हैडोप में है?
फ़ाइलों का संपादन और अद्यतन करने के लिए WebDAV, HTTP के एक्सटेंशन का एक सेट है। अधिकांश ऑपरेटिंग सिस्टम पर WebDAV के शेयरों को फाइलसिस्टम के रूप में रखा जा सकता है, इसलिए WebDAV पर HDFS को उजागर करके एक मानक फाइल सिस्टम के रूप में HDFS को एक्सेस करना संभव है।
१) बताइए कि हडोप में सैकूप क्या है?
रिलेशनल डेटाबेस मैनेजमेंट (RDBMS) और Hadoop HDFS के बीच डेटा ट्रांसफर करने के लिए Sqoop नाम से एक टूल का इस्तेमाल किया जाता है। Sqoff डेटा का उपयोग RDMS जैसे MySQL या Oracle से HDFS में स्थानांतरित किया जा सकता है और साथ ही HDFS फ़ाइल से डेटा को RDBMS में निर्यात किया जा सकता है
18) बताएं कि जॉबट्रैकर किसी कार्य को कैसे निर्धारित करता है?
टास्क ट्रैकर, जॉबट्रैकर को आमतौर पर हर कुछ मिनट में दिल की धड़कन संदेश भेजता है ताकि यह सुनिश्चित हो सके कि जॉबट्रैकर सक्रिय और कार्यशील है। संदेश जॉबट्रैकर को उपलब्ध स्लॉट की संख्या के बारे में भी सूचित करता है, इसलिए जॉबट्रैक उस तिथि तक बना रह सकता है जिसमें क्लस्टर का काम दिया जा सकता है
19) बताइए कि सीक्वेंसफाइलिनपुटफॉर्म क्या है?
अनुक्रम में फ़ाइलों को पढ़ने के लिए Sequencefileinputformat का उपयोग किया जाता है। यह एक विशिष्ट संपीड़ित द्विआधारी फ़ाइल प्रारूप है, जो कि एक MapReduce जॉब के आउटपुट के बीच डेटा को किसी अन्य MapReduce जॉब के इनपुट के लिए ऑप्टिमाइज़ किया जाता है।
20) बताइए। conf.setMapper क्लास क्या करता है?
Conf.setMapperclass मैपर क्लास और मैप जॉब से संबंधित सभी चीजें जैसे डेटा पढ़ना और मैपर के बाहर की-वैल्यू पेयर जेनरेट करता है।
21) बताइए क्या है हडोप?
यह डेटा के भंडारण और कमोडिटी हार्डवेयर के क्लस्टर पर एप्लिकेशन चलाने के लिए एक ओपन-सोर्स सॉफ्टवेयर फ्रेमवर्क है। यह किसी भी प्रकार के डेटा के लिए भारी प्रसंस्करण शक्ति और बड़े पैमाने पर भंडारण प्रदान करता है।
22) उल्लेख करें कि RDBMS और Hadoop में क्या अंतर है?
आरडीबीएमएस | Hadoop |
RDBMS एक रिलेशनल डेटाबेस मैनेजमेंट सिस्टम है | Hadoop एक नोड आधारित फ्लैट संरचना है |
इसका उपयोग ओएलटीपी प्रोसेसिंग के लिए किया जाता है जबकि हैडोप | वर्तमान में इसका उपयोग विश्लेषणात्मक और BIG DATA प्रसंस्करण के लिए किया जाता है |
RDBMS में, डेटाबेस क्लस्टर साझा किए गए संग्रहण में संग्रहीत डेटा फ़ाइलों का उपयोग करता है | Hadoop में, स्टोरेज डेटा को प्रत्येक प्रोसेसिंग नोड में स्वतंत्र रूप से संग्रहीत किया जा सकता है। |
इसे स्टोर करने से पहले आपको डेटा प्रीप्रोसेस करना होगा | इसे संग्रहीत करने से पहले आपको डेटा प्रीप्रोसेस करने की आवश्यकता नहीं है |
23) उल्लेख Hadoop कोर घटक?
Hadoop कोर घटकों में शामिल हैं,
- HDFS
- मानचित्र छोटा करना
24) हाडोप में NameNode क्या है?
Hadoop में NameNode वह जगह है जहाँ Hadoop HDFS में सभी फ़ाइल स्थान की जानकारी संग्रहीत करता है। यह मास्टर नोड है जिस पर नौकरी ट्रैकर चलता है और मेटाडाटा होता है।
25) उल्लेख करें कि Hadoop द्वारा उपयोग किए जाने वाले डेटा घटक क्या हैं?
Hadoop द्वारा उपयोग किए जाने वाले डेटा घटक हैं
- सूअर
- मधुमुखी का छत्ता
26) Hadoop द्वारा उपयोग किया जाने वाला डेटा स्टोरेज घटक क्या है?
Hadoop द्वारा उपयोग किया जाने वाला डेटा स्टोरेज घटक HBase है।
27) हडूप में परिभाषित सबसे आम इनपुट प्रारूप क्या हैं?
Hadoop में परिभाषित सबसे आम इनपुट प्रारूप हैं;
- TextInputFormat
- KeyValueInputFormat
- क्रम
28) Hadoop में InputSplit क्या है?
यह इनपुट फाइलों को विखंडू में विभाजित करता है और प्रत्येक विभाजन को प्रसंस्करण के लिए एक मैपर को सौंपता है।
२ ९) हाडोप जॉब के लिए, आप एक कस्टम पार्टीशनर कैसे लिखेंगे?
आप एक Hadoop नौकरी के लिए एक कस्टम पार्टीशनर लिखते हैं, आप निम्नलिखित पथ का अनुसरण करते हैं
- एक नया वर्ग बनाएं जो विभाजनकर्ता वर्ग का विस्तार करता है
- ओवरराइड विधि getPartition
- रैपर में जो MapReduce चलाता है
- कस्टम पार्टीशन को मेथड सेट पार्टिशनर क्लास का उपयोग करके जॉब में जोड़ें - या कस्टम पार्टीशन को जॉब के लिए डिफॉल्ट फाइल के रूप में जोड़ें।
30) हाडोप में नौकरी के लिए, क्या बनने के लिए मैपर की संख्या को बदलना संभव है?
नहीं, बनाए जाने वाले मैपर्स की संख्या को बदलना संभव नहीं है। मैपर्स की संख्या इनपुट विभाजन की संख्या से निर्धारित होती है।
३१) बताइए कि Hadoop में एक अनुक्रम फ़ाइल क्या है?
द्विआधारी कुंजी / मूल्य जोड़े को संग्रहीत करने के लिए, अनुक्रम फ़ाइल का उपयोग किया जाता है। नियमित संपीड़ित फ़ाइल के विपरीत, फ़ाइल के अंदर डेटा संपीड़ित होने पर भी अनुक्रम फ़ाइल विभाजन विभाजित होता है।
32) जब नेमनोड नीचे है तो जॉब ट्रैकर का क्या होता है?
नामेनोड एचडीएफएस में विफलता का एकल बिंदु है इसलिए जब नामेनोड नीचे है तो आपका क्लस्टर बंद हो जाएगा।
33) बताएं कि HDFS में इंडेक्सिंग कैसे की जाती है?
Hadoop में अनुक्रमण का एक अनूठा तरीका है। एक बार जब डेटा को ब्लॉक आकार के अनुसार संग्रहीत किया जाता है, तो HDFS डेटा के अंतिम भाग को संग्रहीत करता रहेगा जो कहता है कि डेटा का अगला भाग कहाँ होगा।
34) वाइल्डकार्ड्स का उपयोग करके फाइलों की खोज करना संभव है?
हां, वाइल्डकार्ड का उपयोग करके फाइलों को खोजना संभव है।
35) Hadoop की तीन कॉन्फ़िगरेशन फ़ाइलों की सूची बनाएं?
तीन कॉन्फ़िगरेशन फ़ाइलें हैं
- कोर- site.xml
- mapred-site.xml
- hdfs-site.xml
36) बताएं कि आप कैसे जांच सकते हैं कि नामेनोड जीपीएस कमांड का उपयोग करके काम कर रहा है या नहीं?
Jps कमांड का उपयोग करने के अलावा, यह जांचने के लिए कि क्या नामेनोड आप काम कर रहे हैं
/etc/init.d/hadoop-0.20-namenode स्थिति।
37) बताइए कि हडोप में "मैप" क्या है और "रेड्यूसर" क्या है?
Hadoop में, HDFS क्वेरी हल करने में एक नक्शा एक चरण है। एक मानचित्र एक इनपुट स्थान से डेटा पढ़ता है, और इनपुट प्रकार के अनुसार एक प्रमुख मूल्य जोड़ी को आउटपुट करता है।
Hadoop में, एक reducer मैपर द्वारा उत्पन्न आउटपुट को इकट्ठा करता है, इसे प्रोसेस करता है, और स्वयं का अंतिम आउटपुट बनाता है।
38) Hadoop में, कौन सी फ़ाइल Hadoop में रिपोर्टिंग को नियंत्रित करती है?
Hadoop में, hadoop-metrics.properties फ़ाइल रिपोर्टिंग को नियंत्रित करती है।
39) Hadoop का उपयोग करने के लिए नेटवर्क आवश्यकताओं की सूची है?
Hadoop का उपयोग करने के लिए नेटवर्क आवश्यकताओं की सूची इस प्रकार है:
- पासवर्ड-कम SSH कनेक्शन
- सर्वर प्रक्रियाओं को शुरू करने के लिए सुरक्षित शेल (SSH)
40) रैक जागरूकता क्या है?
रैक जागरुकता वह तरीका है जिसमें नामीनोड यह निर्धारित करता है कि रैक परिभाषाओं के आधार पर ब्लॉक कैसे रखें।
41) बताइए कि Hadoop में एक टास्क ट्रैकर क्या है?
Hadoop में एक टास्क ट्रैकर क्लस्टर में एक दास नोड डेमॉन है जो एक जॉबट्रैक से कार्यों को स्वीकार करता है। यह जॉबट्रैकर को दिल की धड़कन संदेश भी भेजता है, हर कुछ मिनटों में, यह पुष्टि करने के लिए कि जॉबट्रैक अभी भी जीवित है।
42) डेमन्स मास्टर नोड और दास नोड्स पर क्या कहते हैं?
- मास्टर नोड पर चलने वाले डेमॉन "NameNode" है
- प्रत्येक दास नोड पर चलने वाले डेमन "कार्य ट्रैकर" और "डेटा" हैं
43) बताइए कि आप Hadoop कोड को कैसे डिबग कर सकते हैं?
Hadoop कोड डीबग करने के लोकप्रिय तरीके हैं:
- Hadoop ढांचे द्वारा प्रदान किए गए वेब इंटरफ़ेस का उपयोग करके
- काउंटरों का उपयोग करके
४४) बताइए भंडारण और गणना नोड्स क्या है?
- स्टोरेज नोड वह मशीन या कंप्यूटर है जहां आपकी फाइल सिस्टम प्रोसेसिंग डाटा को स्टोर करने के लिए रहती है
- कंप्यूट नोड कंप्यूटर या मशीन है जहां आपके वास्तविक व्यापार तर्क को निष्पादित किया जाएगा।
45) उल्लेख करें कि प्रसंग वस्तु का उपयोग क्या है?
प्रसंग वस्तु मेपर को बाकी हडोप के साथ बातचीत करने में सक्षम बनाती है
प्रणाली। इसमें नौकरी के लिए कॉन्फ़िगरेशन डेटा, साथ ही इंटरफेस शामिल हैं जो इसे आउटपुट से बाहर निकलने की अनुमति देते हैं।
46) उल्लेख करें कि मैपर या मैपकट के बाद अगला कदम क्या है?
मैपर या मैपटस्क के बाद अगला कदम यह है कि मैपर के आउटपुट को क्रमबद्ध किया जाता है, और आउटपुट के लिए विभाजन बनाए जाएंगे।
४ in) हडॉप में डिफॉल्ट पार्टीशनर की संख्या का उल्लेख करें?
Hadoop में, डिफॉल्ट पार्टीशनर "Hash" पार्टीशनर है।
४?) बताइए कि होदोप में रिकार्डराइड का उद्देश्य क्या है?
Hadoop में, RecordReader अपने स्रोत से डेटा को लोड करता है और इसे मैपर द्वारा पढ़ने के लिए उपयुक्त (कुंजी, मूल्य) जोड़े में परिवर्तित करता है।
४ ९) बताइए कि यदि कोई कस्टम पार्टीशनर को हडोप में परिभाषित नहीं किया जाता है, तो डेटा का विभाजन कैसे किया जाता है?
यदि कोई कस्टम पार्टीशनर Hadoop में परिभाषित नहीं है, तो एक डिफ़ॉल्ट पार्टीशनर कुंजी के लिए हैश मान की गणना करता है और परिणाम के आधार पर विभाजन असाइन करता है।
50) बताइए कि क्या होता है जब Hadoop ने नौकरी के लिए 50 कार्य किए और एक कार्य विफल हो गया?
यदि निर्धारित सीमा से अधिक कार्य विफल हो जाता है तो यह कुछ अन्य टास्कट्रैक पर कार्य को फिर से शुरू करेगा।
51) उल्लेख करें कि एचडीएफएस क्लस्टर के बीच फ़ाइलों की प्रतिलिपि बनाने का सबसे अच्छा तरीका क्या है?
HDFS क्लस्टर्स के बीच फ़ाइलों को कॉपी करने का सबसे अच्छा तरीका कई नोड्स और डिस्टेक कमांड का उपयोग करना है, इसलिए वर्कलोड साझा किया जाता है।
52) उल्लेख करें कि एचडीएफएस और एनएएस में क्या अंतर है?
HDFS डेटा ब्लॉक सभी मशीनों के एक क्लस्टर में स्थानीय ड्राइव पर वितरित किए जाते हैं जबकि एनएएस डेटा को समर्पित हार्डवेयर पर संग्रहीत किया जाता है।
५३) ध्यान दें कि कैसे Hadoop अन्य डेटा प्रोसेसिंग टूल से अलग है?
Hadoop में, आप संसाधित किए जाने वाले डेटा की मात्रा की चिंता किए बिना मैपर की संख्या बढ़ा या घटा सकते हैं।
५४) उल्लेख करें कि गोपनीय वर्ग क्या नौकरी करता है?
एक ही क्लस्टर पर चलने वाली अलग-अलग नौकरियों के लिए जॉब कॉन्फ क्लास अलग। यह नौकरी के स्तर की सेटिंग्स करता है जैसे कि वास्तविक वातावरण में नौकरी की घोषणा करना।
55) उल्लेख करें कि एक प्रमुख और मूल्य वर्ग के लिए Hadoop MapReduce API का अनुबंध क्या है?
एक कुंजी और मूल्य वर्ग के लिए, दो Hadoop MapReduce API अनुबंध हैं
- मान को org.apache.hadoop.io.Writable इंटरफ़ेस को परिभाषित करना चाहिए
- कुंजी को org.apache.hadoop.io.ritableComparable इंटरफ़ेस को परिभाषित करना चाहिए
56) उल्लेख करें कि हडोप को चलाने के तीन तरीके क्या हैं?
हडोप को चलाने के तीन तरीके हैं
- छद्म वितरित मोड
- स्टैंडअलोन (स्थानीय) मोड
- पूरी तरह से वितरित मोड
५ the) उल्लेख करें कि पाठ इनपुट प्रारूप क्या करता है?
पाठ इनपुट प्रारूप एक लाइन ऑब्जेक्ट बनाएगा जो हेक्साडेसिमल संख्या है। मान को संपूर्ण पंक्ति पाठ माना जाता है जबकि कुंजी को लाइन ऑब्जेक्ट माना जाता है। मैपर को 'टेक्स्ट' पैरामीटर के रूप में मान मिलेगा जबकि कुंजी को 'लॉन्ग राइटिटिबल' पैरामीटर के रूप में।
५ by) ध्यान दें कि हडोप फ्रेमवर्क द्वारा कितने इनपुटस्प्लाट बनाए जाते हैं?
Hadoop 5 विभाजन करेगा
- 64K फ़ाइलों के लिए 1 विभाजन
- 65mb फ़ाइलों के लिए 2 विभाजन
- 127mb फ़ाइलों के लिए 2 विभाजन
59) Hadoop में कैश वितरित किया गया है, इसका उल्लेख करें?
Hadoop में वितरित कैश, MapReduce ढांचे द्वारा प्रदान की जाने वाली एक सुविधा है। नौकरी के निष्पादन के समय, इसका उपयोग फ़ाइल को कैश करने के लिए किया जाता है। फ्रेमवर्क नोड पर किसी भी कार्य के निष्पादन से पहले आवश्यक फाइलों को दास नोड में कॉपी करता है।
६०) बताइए कि हाडोप डेमपोंस को रोकने या शुरू करने में Hadoop Classpath कैसे महत्वपूर्ण भूमिका निभाता है?
क्लासपैथ में डेमों को रोकने या शुरू करने के लिए जार फ़ाइलों वाली निर्देशिकाओं की एक सूची शामिल होगी।