एनएलपी क्या है?
एनएलपी या नेचुरल लैंग्वेज प्रोसेसिंग आर्टिफिशियल इंटेलिजेंस की लोकप्रिय शाखाओं में से एक है, जो कंप्यूटर को अपनी प्राकृतिक भाषा में मानव को समझने, हेरफेर करने या प्रतिक्रिया देने में मदद करती है। एनएलपी Google अनुवाद के पीछे का इंजन है जो हमें अन्य भाषाओं को समझने में मदद करता है।
Seq2Seq क्या है?
Seq2Seq एन्कोडर-डिकोडर आधारित मशीन अनुवाद और भाषा प्रसंस्करण की एक विधि है जो एक टैग और ध्यान मूल्य के साथ अनुक्रम के आउटपुट में अनुक्रम के इनपुट को मैप करता है। विचार 2 आरएनएन का उपयोग करना है जो एक विशेष टोकन के साथ मिलकर काम करेगा और पिछले अनुक्रम से अगले राज्य अनुक्रम की भविष्यवाणी करने का प्रयास करेगा।
चरण 1) हमारे डेटा लोड हो रहे हैं
हमारे डेटासेट के लिए, आप टैब-सीमांकित द्विभाषी वाक्य जोड़े के डेटासेट का उपयोग करेंगे। यहां मैं अंग्रेजी का उपयोग इंडोनेशिया के डेटासेट के लिए करूंगा। आप अपनी पसंद के अनुसार कुछ भी चुन सकते हैं लेकिन कोड में फ़ाइल का नाम और निर्देशिका बदलना याद रखें।
from __future__ import unicode_literals, print_function, divisionimport torchimport torch.nn as nnimport torch.optim as optimimport torch.nn.functional as Fimport numpy as npimport pandas as pdimport osimport reimport randomdevice = torch.device("cuda" if torch.cuda.is_available() else "cpu")
चरण 2) डेटा तैयारी
आप सीधे डेटासेट का उपयोग नहीं कर सकते। आपको वाक्यों को शब्दों में विभाजित करने और इसे वन-हॉट वेक्टर में बदलने की आवश्यकता है। शब्दकोश बनाने के लिए लैंग क्लास में हर शब्द को विशिष्ट रूप से अनुक्रमित किया जाएगा। लैंग क्लास हर वाक्य को संग्रहीत करेगा और इसे शब्द को शब्द के साथ जोड़ देगा। फिर अनुक्रम मॉडल के लिए अनुक्रम के लिए हर अज्ञात शब्द को अनुक्रमित करके एक शब्दकोश बनाएं।
SOS_token = 0EOS_token = 1MAX_LENGTH = 20#initialize Lang Classclass Lang:def __init__(self):#initialize containers to hold the words and corresponding indexself.word2index = {}self.word2count = {}self.index2word = {0: "SOS", 1: "EOS"}self.n_words = 2 # Count SOS and EOS#split a sentence into words and add it to the containerdef addSentence(self, sentence):for word in sentence.split(' '):self.addWord(word)#If the word is not in the container, the word will be added to it,#else, update the word counterdef addWord(self, word):if word not in self.word2index:self.word2index[word] = self.n_wordsself.word2count[word] = 1self.index2word[self.n_words] = wordself.n_words += 1else:self.word2count[word] += 1
लैंग क्लास एक ऐसा वर्ग है जो हमें एक शब्दकोश बनाने में मदद करेगा। प्रत्येक भाषा के लिए, प्रत्येक वाक्य को शब्दों में विभाजित किया जाएगा और फिर कंटेनर में जोड़ा जाएगा। प्रत्येक कंटेनर शब्दों को उपयुक्त सूचकांक में संग्रहीत करेगा, शब्द की गणना करेगा, और शब्द के सूचकांक को जोड़ देगा ताकि हम इसका उपयोग किसी शब्द के सूचकांक को खोजने या इसके सूचकांक से किसी शब्द को खोजने के लिए कर सकें।
क्योंकि हमारा डेटा TAB द्वारा अलग किया गया है, इसलिए आपको हमारे डेटा लोडर के रूप में पांडा का उपयोग करने की आवश्यकता है। पंडों ने हमारे डेटा को डेटाफ्रेम के रूप में पढ़ा और इसे हमारे स्रोत और लक्ष्य वाक्य में विभाजित किया। आपके पास प्रत्येक वाक्य के लिए,
- आप इसे निचले मामले में सामान्य कर देंगे,
- सभी गैर-चरित्र को हटा दें
- यूनिकोड से ASCII में परिवर्तित करें
- शब्दों को विभाजित करें, इसलिए आपके पास प्रत्येक शब्द है।
#Normalize every sentencedef normalize_sentence(df, lang):sentence = df[lang].str.lower()sentence = sentence.str.replace('[^A-Za-z\s]+', '')sentence = sentence.str.normalize('NFD')sentence = sentence.str.encode('ascii', errors='ignore').str.decode('utf-8')return sentencedef read_sentence(df, lang1, lang2):sentence1 = normalize_sentence(df, lang1)sentence2 = normalize_sentence(df, lang2)return sentence1, sentence2def read_file(loc, lang1, lang2):df = pd.read_csv(loc, delimiter='\t', header=None, names=[lang1, lang2])return dfdef process_data(lang1,lang2):df = read_file('text/%s-%s.txt' % (lang1, lang2), lang1, lang2)print("Read %s sentence pairs" % len(df))sentence1, sentence2 = read_sentence(df, lang1, lang2)source = Lang()target = Lang()pairs = []for i in range(len(df)):if len(sentence1[i].split(' ')) < MAX_LENGTH and len(sentence2[i].split(' ')) < MAX_LENGTH:full = [sentence1[i], sentence2[i]]source.addSentence(sentence1[i])target.addSentence(sentence2[i])pairs.append(full)return source, target, pairs
एक और उपयोगी फ़ंक्शन जो आप उपयोग करेंगे, वह है जोड़े को टेन्सर में परिवर्तित करना। यह बहुत महत्वपूर्ण है क्योंकि हमारा नेटवर्क केवल टेंसर टाइप डेटा पढ़ता है। यह महत्वपूर्ण भी है क्योंकि यह वह हिस्सा है कि वाक्य के हर सिरे पर नेटवर्क को यह बताने के लिए एक टोकन होगा कि इनपुट समाप्त हो गया है। वाक्य में प्रत्येक शब्द के लिए, यह शब्दकोश में उपयुक्त शब्द से सूचकांक प्राप्त करेगा और वाक्य के अंत में एक टोकन जोड़ देगा।
def indexesFromSentence(lang, sentence):return [lang.word2index[word] for word in sentence.split(' ')]def tensorFromSentence(lang, sentence):indexes = indexesFromSentence(lang, sentence)indexes.append(EOS_token)return torch.tensor(indexes, dtype=torch.long, device=device).view(-1, 1)def tensorsFromPair(input_lang, output_lang, pair):input_tensor = tensorFromSentence(input_lang, pair[0])target_tensor = tensorFromSentence(output_lang, pair[1])return (input_tensor, target_tensor)
Seq2Seq मॉडल
स्रोत: Seq2Seq
PyTorch Seq2seq मॉडल एक प्रकार का मॉडल है जो मॉडल के शीर्ष पर PyTorch एनकोडर डिकोडर का उपयोग करता है। एनकोडर शब्दों को शब्दों के सूचकांक में शब्दों या अनुक्रमित शब्दों के अनुक्रमित शब्दों के साथ सांकेतिक शब्दों में बदलना होगा, और डिकोडर इनपुट में अनुक्रम को डिकोड करके कोडित इनपुट के आउटपुट की भविष्यवाणी करेगा और अगले इनपुट के रूप में अंतिम इनपुट का उपयोग करने की कोशिश करेगा यह संभव है। इस पद्धति के साथ, वाक्य बनाने के लिए अगले इनपुट की भविष्यवाणी करना भी संभव है। प्रत्येक वाक्य को अनुक्रम के अंत को चिह्नित करने के लिए एक टोकन सौंपा जाएगा। भविष्यवाणी के अंत में, आउटपुट के अंत को चिह्नित करने के लिए एक टोकन भी होगा। तो, एनकोडर से, यह आउटपुट की भविष्यवाणी करने के लिए डिकोडर के लिए एक राज्य पारित करेगा।
स्रोत: Seq2Seq मॉडल
एनकोडर हमारे इनपुट वाक्य शब्द को क्रम से शब्द द्वारा एन्कोड करेगा और अंत में एक वाक्य के अंत को चिह्नित करने के लिए एक टोकन होगा। एनकोडर में एंबेडिंग लेयर और GRU लेयर्स होते हैं। एंबेडिंग लेयर एक लुकअप टेबल है जो हमारे इनपुट के एम्बेडिंग को शब्दों के निश्चित आकार के शब्दकोश में संग्रहीत करती है। इसे जीआरयू लेयर में पास किया जाएगा। जीआरयू लेयर एक गेटेड रिकरंट यूनिट है जिसमें आरएनएन के कई लेयर प्रकार होते हैं जो अनुक्रमित इनपुट की गणना करेगा। यह परत पिछले एक से छिपे हुए राज्य की गणना करेगा और रीसेट, अपडेट और नए गेट्स को अपडेट करेगा।
स्रोत: Seq2Seq
डिकोडर एनकोडर आउटपुट से इनपुट को डिकोड करेगा। यह अगले आउटपुट की भविष्यवाणी करने की कोशिश करेगा और यदि संभव हो तो इसे अगले इनपुट के रूप में उपयोग करने का प्रयास करेगा। डिकोडर में एक एंबेडिंग लेयर, GRU लेयर और एक Linear लेयर होता है। एम्बेडिंग परत आउटपुट के लिए एक लुकअप टेबल बनाएगी और अनुमानित आउटपुट स्टेट की गणना करने के लिए GRU लेयर में जाएगी। उसके बाद, एक रेखीय परत पूर्वानुमानित आउटपुट के वास्तविक मूल्य को निर्धारित करने के लिए सक्रियण फ़ंक्शन की गणना करने में मदद करेगी।
class Encoder(nn.Module):def __init__(self, input_dim, hidden_dim, embbed_dim, num_layers):super(Encoder, self).__init__()#set the encoder input dimesion , embbed dimesion, hidden dimesion, and number of layersself.input_dim = input_dimself.embbed_dim = embbed_dimself.hidden_dim = hidden_dimself.num_layers = num_layers#initialize the embedding layer with input and embbed dimentionself.embedding = nn.Embedding(input_dim, self.embbed_dim)#intialize the GRU to take the input dimetion of embbed, and output dimention of hidden and#set the number of gru layersself.gru = nn.GRU(self.embbed_dim, self.hidden_dim, num_layers=self.num_layers)def forward(self, src):embedded = self.embedding(src).view(1,1,-1)outputs, hidden = self.gru(embedded)return outputs, hiddenclass Decoder(nn.Module):def __init__(self, output_dim, hidden_dim, embbed_dim, num_layers):super(Decoder, self).__init__()#set the encoder output dimension, embed dimension, hidden dimension, and number of layersself.embbed_dim = embbed_dimself.hidden_dim = hidden_dimself.output_dim = output_dimself.num_layers = num_layers# initialize every layer with the appropriate dimension. For the decoder layer, it will consist of an embedding, GRU, a Linear layer and a Log softmax activation function.self.embedding = nn.Embedding(output_dim, self.embbed_dim)self.gru = nn.GRU(self.embbed_dim, self.hidden_dim, num_layers=self.num_layers)self.out = nn.Linear(self.hidden_dim, output_dim)self.softmax = nn.LogSoftmax(dim=1)def forward(self, input, hidden):# reshape the input to (1, batch_size)input = input.view(1, -1)embedded = F.relu(self.embedding(input))output, hidden = self.gru(embedded, hidden)prediction = self.softmax(self.out(output[0]))return prediction, hiddenclass Seq2Seq(nn.Module):def __init__(self, encoder, decoder, device, MAX_LENGTH=MAX_LENGTH):super().__init__()#initialize the encoder and decoderself.encoder = encoderself.decoder = decoderself.device = devicedef forward(self, source, target, teacher_forcing_ratio=0.5):input_length = source.size(0) #get the input length (number of words in sentence)batch_size = target.shape[1]target_length = target.shape[0]vocab_size = self.decoder.output_dim#initialize a variable to hold the predicted outputsoutputs = torch.zeros(target_length, batch_size, vocab_size).to(self.device)#encode every word in a sentencefor i in range(input_length):encoder_output, encoder_hidden = self.encoder(source[i])#use the encoder’s hidden layer as the decoder hiddendecoder_hidden = encoder_hidden.to(device)#add a token before the first predicted worddecoder_input = torch.tensor([SOS_token], device=device) # SOS#topk is used to get the top K value over a list#predict the output word from the current target word. If we enable the teaching force, then the #next decoder input is the next word, else, use the decoder output highest value.for t in range(target_length):decoder_output, decoder_hidden = self.decoder(decoder_input, decoder_hidden)outputs[t] = decoder_outputteacher_force = random.random() < teacher_forcing_ratiotopv, topi = decoder_output.topk(1)input = (target[t] if teacher_force else topi)if(teacher_force == False and input.item() == EOS_token):breakreturn outputs
चरण 3) मॉडल का प्रशिक्षण
Seq2seq मॉडल में प्रशिक्षण प्रक्रिया को उनके लैंग इंडेक्स से प्रत्येक जोड़े को Tensors में बदलने के साथ शुरू किया जाता है। सीक्वेंस मॉडल के लिए हमारा अनुक्रम नुकसान की गणना करने के लिए अनुकूलक का उपयोग अनुकूलक और NLLLoss फ़ंक्शन के रूप में करेगा। प्रशिक्षण प्रक्रिया सही आउटपुट की भविष्यवाणी करने के लिए मॉडल को एक वाक्य की जोड़ी खिलाने के साथ शुरू होती है। प्रत्येक चरण में, मॉडल से आउटपुट की गणना घाटे को खोजने और मापदंडों को अपडेट करने के लिए सही शब्दों के साथ की जाएगी। इसलिए क्योंकि आप 75000 पुनरावृत्तियों का उपयोग करेंगे, हमारे अनुक्रम मॉडल का क्रम हमारे डेटासेट से यादृच्छिक 75000 जोड़े उत्पन्न करेगा।
teacher_forcing_ratio = 0.5def clacModel(model, input_tensor, target_tensor, model_optimizer, criterion):model_optimizer.zero_grad()input_length = input_tensor.size(0)loss = 0epoch_loss = 0# print(input_tensor.shape)output = model(input_tensor, target_tensor)num_iter = output.size(0)print(num_iter)#calculate the loss from a predicted sentence with the expected resultfor ot in range(num_iter):loss += criterion(output[ot], target_tensor[ot])loss.backward()model_optimizer.step()epoch_loss = loss.item() / num_iterreturn epoch_lossdef trainModel(model, source, target, pairs, num_iteration=20000):model.train()optimizer = optim.SGD(model.parameters(), lr=0.01)criterion = nn.NLLLoss()total_loss_iterations = 0training_pairs = [tensorsFromPair(source, target, random.choice(pairs))for i in range(num_iteration)]for iter in range(1, num_iteration+1):training_pair = training_pairs[iter - 1]input_tensor = training_pair[0]target_tensor = training_pair[1]loss = clacModel(model, input_tensor, target_tensor, optimizer, criterion)total_loss_iterations += lossif iter % 5000 == 0:avarage_loss= total_loss_iterations / 5000total_loss_iterations = 0print('%d %.4f' % (iter, avarage_loss))torch.save(model.state_dict(), 'mytraining.pt')return model
चरण 4) मॉडल का परीक्षण करें
Seq2seq PyTorch की मूल्यांकन प्रक्रिया मॉडल आउटपुट की जांच करने के लिए है। अनुक्रम मॉडल के अनुक्रम की प्रत्येक जोड़ी मॉडल में फ़ीड की जाएगी और अनुमानित शब्द उत्पन्न करेगी। उसके बाद आप सही सूचकांक खोजने के लिए प्रत्येक आउटपुट पर उच्चतम मूल्य देखेंगे। और अंत में, आप हमारे मॉडल की भविष्यवाणी को सच्चे वाक्य के साथ देखने के लिए तुलना करेंगे
def evaluate(model, input_lang, output_lang, sentences, max_length=MAX_LENGTH):with torch.no_grad():input_tensor = tensorFromSentence(input_lang, sentences[0])output_tensor = tensorFromSentence(output_lang, sentences[1])decoded_words = []output = model(input_tensor, output_tensor)# print(output_tensor)for ot in range(output.size(0)):topv, topi = output[ot].topk(1)# print(topi)if topi[0].item() == EOS_token:decoded_words.append('')breakelse:decoded_words.append(output_lang.index2word[topi[0].item()])return decoded_wordsdef evaluateRandomly(model, source, target, pairs, n=10):for i in range(n):pair = random.choice(pairs)print(‘source {}’.format(pair[0]))print(‘target {}’.format(pair[1]))output_words = evaluate(model, source, target, pair)output_sentence = ' '.join(output_words)print(‘predicted {}’.format(output_sentence))
अब, हम अपने प्रशिक्षण की शुरुआत ५१००० के पुनरावृत्तियों की संख्या और ५१ के छिपे हुए आकार के साथ RNN परत की संख्या १ के साथ Seq से Seq से करते हैं।
lang1 = 'eng'lang2 = 'ind'source, target, pairs = process_data(lang1, lang2)randomize = random.choice(pairs)print('random sentence {}'.format(randomize))#print number of wordsinput_size = source.n_wordsoutput_size = target.n_wordsprint('Input : {} Output : {}'.format(input_size, output_size))embed_size = 256hidden_size = 512num_layers = 1num_iteration = 100000#create encoder-decoder modelencoder = Encoder(input_size, hidden_size, embed_size, num_layers)decoder = Decoder(output_size, hidden_size, embed_size, num_layers)model = Seq2Seq(encoder, decoder, device).to(device)#print modelprint(encoder)print(decoder)model = trainModel(model, source, target, pairs, num_iteration)evaluateRandomly(model, source, target, pairs)
जैसा कि आप देख सकते हैं, हमारे पूर्वानुमानित वाक्य का अच्छी तरह से मिलान नहीं किया गया है, इसलिए उच्च सटीकता प्राप्त करने के लिए, आपको बहुत अधिक डेटा के साथ प्रशिक्षित करने और अनुक्रम सीखने के अनुक्रम के लिए अधिक पुनरावृत्तियों और संख्याओं को जोड़ने की कोशिश करने की आवश्यकता है।
random sentence ['tom is finishing his work', 'tom sedang menyelesaikan pekerjaannya']Input : 3551 Output : 4253Encoder((embedding): Embedding(3551, 256)(gru): GRU(256, 512))Decoder((embedding): Embedding(4253, 256)(gru): GRU(256, 512)(out): Linear(in_features=512, out_features=4253, bias=True)(softmax): LogSoftmax())Seq2Seq((encoder): Encoder((embedding): Embedding(3551, 256)(gru): GRU(256, 512))(decoder): Decoder((embedding): Embedding(4253, 256)(gru): GRU(256, 512)(out): Linear(in_features=512, out_features=4253, bias=True)(softmax): LogSoftmax()))5000 4.090610000 3.912915000 3.817120000 3.836925000 3.819930000 3.795735000 3.803740000 3.809845000 3.753050000 3.711955000 3.726360000 3.693365000 3.684070000 3.705875000 3.7044> this is worth one million yen= ini senilai satu juta yen< tom sangat satu juta yen> she got good grades in english= dia mendapatkan nilai bagus dalam bahasa inggris< tom meminta nilai bagus dalam bahasa inggris > put in a little more sugar= tambahkan sedikit gula< tom tidak > are you a japanese student= apakah kamu siswa dari jepang< tom kamu memiliki yang jepang > i apologize for having to leave= saya meminta maaf karena harus pergi< tom tidak maaf karena harus pergi ke> he isnt here is he= dia tidak ada di sini kan< tom tidak > speaking about trips have you ever been to kobe= berbicara tentang wisata apa kau pernah ke kobe< tom tidak > tom bought me roses= tom membelikanku bunga mawar< tom tidak bunga mawar > no one was more surprised than tom= tidak ada seorangpun yang lebih terkejut dari tom< tom ada orang yang lebih terkejut > i thought it was true= aku kira itu benar adanya< tom tidak