મુખ્ય સામગ્રી પર જાઓ
  1. સંસાધનો/
  2. અભ્યાસ સામગ્રી/
  3. ઇન્ફોર્મેશન ટેકનોલોજી એન્જિનિયરિંગ/
  4. આઈટી સેમેસ્ટર 5/
  5. આર્ટિફિશિયલ ઇન્ટેલિજન્સ અને મશીન લર્નિંગ (4351601)/

Foundation of AI and ML (4351601) - Summer 2025 Solution (Gujarati)

·
Study-Material Solutions Ai-Ml 4351601 2025 Summer Gtu Gujarati
મિલવ ડબગર
લેખક
મિલવ ડબગર
ઇલેક્ટ્રિકલ અને ઇલેક્ટ્રોનિક મેન્યુફેક્ચરિંગ ઉદ્યોગમાં અનુભવી લેક્ચરર. એમ્બેડેડ સિસ્ટમ્સ, ઈમેજ પ્રોસેસિંગ, ડેટા સાયન્સ, મેટલેબ, પાયથન, STM32માં કુશળ. એલ.ડી. કોલેજ ઓફ એન્જિનિયરિંગ - અમદાવાદથી કમ્યુનિકેશન સિસ્ટમ્સ એન્જિનિયરિંગમાં માસ્ટર્સ ડિગ્રી ધરાવતા મજબૂત શિક્ષણ વ્યાવસાયિક.
અનુક્રમણિકા

પ્રશ્ન 1(અ) [3 ગુણ]
#

વર્ડ એમ્બેડિંગ ટેકનિક શું છે? વિવિધ વર્ડ એમ્બેડિંગ તકનીકોની સૂચિ બનાવો.

જવાબ:

વર્ડ એમ્બેડિંગ એ એવી તકનીક છે જે શબ્દોને આંકડાકીય vectors માં રૂપાંતરિત કરે છે અને શબ્દો વચ્ચેના semantic સંબંધોને જાળવી રાખે છે. આ શબ્દોને high-dimensional space માં dense vectors તરીકે દર્શાવે છે.

ટેબલ: વિવિધ વર્ડ એમ્બેડિંગ તકનીકો

તકનીકવર્ણનમુખ્ય લક્ષણ
TF-IDFTerm Frequency-Inverse Document Frequencyઆંકડાકીય માપદંડ
Bag of Words (BoW)આવર્તન-આધારિત રજૂઆતસરળ ગણતરી પદ્ધતિ
Word2VecNeural network-આધારિત embeddingSemantic સંબંધો કેપ્ચર કરે
GloVeGlobal Vectors for word representationGlobal અને local આંકડા સંયોજન

મુખ્ય પોઈન્ટ્સ:

  • TF-IDF: દસ્તાવેજોમાં શબ્દની મહત્ત્વતા માપે છે
  • BoW: Vocabulary-આધારિત vectors બનાવે છે
  • Word2Vec: CBOW અને Skip-gram models વાપરે છે
  • GloVe: Global context સાથે pre-trained embeddings

મેમરી ટ્રીક: “TB-WG” (TF-IDF, BoW, Word2Vec, GloVe)

પ્રશ્ન 1(બ) [4 ગુણ]
#

આર્ટિફિશિયલ ઇન્ટેલિજન્સના વિવિધ પ્રકારોનું વર્ગીકરણ કરો અને તેને ડાયાગ્રામ વડે દર્શાવો.

જવાબ:

AI ને ક્ષમતાઓ અને કાર્યક્ષમતા આધારે વર્ગીકૃત કરી શકાય છે.

ડાયાગ્રામ:

graph TD
    A[Artificial Intelligence] --> B[ક્ષમતાઓ આધારે]
    A --> C[કાર્યક્ષમતા આધારે]
    
    B --> D[Narrow AI/Weak AI]
    B --> E[General AI/Strong AI]
    B --> F[Super AI]
    
    C --> G[Reactive Machines]
    C --> H[Limited Memory]
    C --> I[Theory of Mind]
    C --> J[Self-Awareness]

ટેબલ: AI પ્રકારોની તુલના

વર્ગપ્રકારવર્ણનઉદાહરણ
ક્ષમતાઓNarrow AIકાર્ય-વિશિષ્ટ બુદ્ધિSiri, Chess programs
General AIમાનવ-સ્તરની બુદ્ધિહજુ પ્રાપ્ત નથી
Super AIમાનવ બુદ્ધિથી વધુસૈદ્ધાંતિક ખ્યાલ
કાર્યક્ષમતાReactiveકોઈ યાદદાશ્ત નથીDeep Blue
Limited Memoryભૂતકાળના ડેટાનો ઉપયોગSelf-driving cars

મેમરી ટ્રીક: “NGS-RLT” (Narrow-General-Super, Reactive-Limited-Theory)

પ્રશ્ન 1(ક) [7 ગુણ]
#

તફાવત આપીને NLU અને NLG સમજાવો.

જવાબ:

Natural Language Understanding (NLU) અને Natural Language Generation (NLG) Natural Language Processing ના બે મુખ્ય ઘટકો છે.

ટેબલ: NLU vs NLG તુલના

પાસુંNLUNLG
હેતુમાનવી ભાષાને સમજવુંમાનવી ભાષા જનરેટ કરવું
દિશાInput processingOutput generation
કાર્યઅર્થનું અર્થઘટનટેક્સ્ટ રચના
પ્રક્રિયાવિશ્લેષણ અને સમજસંશ્લેષણ અને સર્જન
ઉદાહરણોIntent recognition, sentiment analysisChatbot responses, report generation
પડકારોઅસ્પષ્ટતા નિવારણNatural text generation

વિગતવાર સમજાવટ:

NLU (Natural Language Understanding):

  • Unstructured text ને structured data માં કન્વર્ટ કરે છે
  • Semantic analysis અને intent extraction કરે છે
  • અસ્પષ્ટતા અને context ની સમજ હેન્ડલ કરે છે

NLG (Natural Language Generation):

  • Structured data ને natural language માં કન્વર્ટ કરે છે
  • સુસંગત અને contextually યોગ્ય ટેક્સ્ટ બનાવે છે
  • વ્યાકરણની ચુસ્તતા અને પ્રવાહિતા સુનિશ્ચિત કરે છે

મેમરી ટ્રીક: “UI-OG” (Understanding Input, Output Generation)

પ્રશ્ન 1(ક) OR [7 ગુણ]
#

આર્ટિફિશિયલ ઈન્ટેલિજન્સનો ઉપયોગ થાય છે તેવા વિવિધ ઉદ્યોગોની યાદી બનાવો અને કોઈપણ બેને સમજાવો.

જવાબ:

ટેબલ: ઉદ્યોગોમાં AI એપ્લિકેશન

ઉદ્યોગAI એપ્લિકેશનલાભો
આરોગ્યનિદાન, દવા શોધચુસ્તતામાં સુધારો
ફાઇનાન્સછેતરપિંડી શોધ, ટ્રેડિંગજોખમ વ્યવસ્થાપન
ઉત્પાદનગુણવત્તા નિયંત્રણકાર્યક્ષમતા
પરિવહનસ્વાયત્ત વાહનોસુરક્ષા
રિટેલસુલેખન સિસ્ટમવ્યક્તિગતકરણ
શિક્ષણવ્યક્તિગત શિક્ષણઅનુકૂલન શિક્ષણ

બે ઉદ્યોગોની વિગતવાર સમજાવટ:

1. આરોગ્ય ઉદ્યોગ:

  • તબીબી નિદાન: AI તબીબી છબીઓ અને દર્દીના ડેટાનું વિશ્લેષણ કરે છે
  • દવા શોધ: સંભવિત દવાઓની ઝડપી ઓળખ
  • વ્યક્તિગત સારવાર: દર્દીના genetics આધારે ઉપચાર
  • લાભો: ઝડપી નિદાન, ભૂલો ઘટાડવી, પરિણામોમાં સુધારો

2. ફાઇનાન્સ ઉદ્યોગ:

  • છેતરપિંડી શોધ: Real-time માં શંકાસ્પદ વ્યવહારો ઓળખવા
  • Algorithmic Trading: બજારના patterns આધારે automated trading
  • Credit Scoring: લોન ડિફોલ્ટ જોખમનું ચોક્કસ મૂલ્યાંકન
  • લાભો: વર્ધેલી સુરક્ષા, ઝડપી પ્રક્રિયા, વધુ સારું જોખમ વ્યવસ્થાપન

મેમરી ટ્રીક: “HF-MR-TE” (Healthcare-Finance, Manufacturing-Retail-Transportation-Education)

પ્રશ્ન 2(અ) [3 ગુણ]
#

મશીન લર્નિંગ શબ્દને વ્યાખ્યાયિત કરો. મશીન લર્નિંગનું વર્ગીકરણ રેખાકૃતિ દોરો.

જવાબ:

મશીન લર્નિંગ AI નો ઉપવિભાગ છે જે કોમ્પ્યુટરોને સ્પષ્ટ રીતે પ્રોગ્રામ કર્યા વિના અનુભવથી શીખવા અને સુધારવા સક્ષમ બનાવે છે. આ ડેટાનું વિશ્લેષણ કરવા, patterns ઓળખવા અને predictions કરવા algorithms નો ઉપયોગ કરે છે.

ડાયાગ્રામ:

graph TD
    A[Machine Learning] --> B[Supervised Learning]
    A --> C[Unsupervised Learning]
    A --> D[Reinforcement Learning]
    
    B --> E[Classification]
    B --> F[Regression]
    
    C --> G[Clustering]
    C --> H[Association]
    
    D --> I[Model-based]
    D --> J[Model-free]

મુખ્ય પોઈન્ટ્સ:

  • Supervised: Labeled training data વાપરે છે
  • Unsupervised: Unlabeled data માં patterns શોધે છે
  • Reinforcement: Rewards અને penalties દ્વારા શીખે છે

મેમરી ટ્રીક: “SUR” (Supervised-Unsupervised-Reinforcement)

પ્રશ્ન 2(બ) [4 ગુણ]
#

Positive reinforcement અને Negative reinforcement નો તફાવત દર્શાવો.

જવાબ:

ટેબલ: Positive vs Negative Reinforcement

પાસુંPositive ReinforcementNegative Reinforcement
વ્યાખ્યાસારા વર્તન માટે રિવોર્ડ ઉમેરવુંઅપ્રિય stimulus દૂર કરવું
ક્રિયાકંઈક આનંદદાયક આપવુંકંઈક અપ્રિય દૂર કરવું
હેતુઇચ્છિત વર્તન વધારવુંઇચ્છિત વર્તન વધારવું
ઉદાહરણસારા પ્રદર્શન માટે બોનસજાગ્યા પછી alarm બંધ કરવું
અસરRewards દ્વારા પ્રેરણારાહત દ્વારા પ્રેરણા
Agent પ્રતિસાદક્રિયા પુનરાવર્તન કરવીનકારાત્મક પરિણામો ટાળવા

મુખ્ય પોઈન્ટ્સ:

  • Positive Reinforcement: Positive stimulus ઉમેરીને વર્તન મજબૂત બનાવે છે
  • Negative Reinforcement: Negative stimulus દૂર કરીને વર્તન મજબૂત બનાવે છે
  • બંને પ્રકાર: ઇચ્છિત વર્તનની સંભાવના વધારવાનું લક્ષ્ય છે
  • તફાવત: પ્રોત્સાહનની પદ્ધતિ (ઉમેરવું vs દૂર કરવું)

મેમરી ટ્રીક: “AR-RN” (Add Reward, Remove Negative)

પ્રશ્ન 2(ક) [7 ગુણ]
#

Supervised અને Unsupervised learning ની તુલના કરો.

જવાબ:

ટેબલ: Supervised vs Unsupervised Learning

પેરામીટરSupervised LearningUnsupervised Learning
ડેટા પ્રકારLabeled data (input-output pairs)Unlabeled data (માત્ર inputs)
શીખવાનું લક્ષ્યપરિણામોની આગાહછુપા patterns શોધવા
Feedbackસાચા જવાબો છેસાચા જવાબો નથી
AlgorithmsSVM, Decision Trees, Neural NetworksK-means, Hierarchical clustering
એપ્લિકેશનClassification, RegressionClustering, Association rules
ચોકસાઈમાપી શકાય છેમાપવી મુશ્કેલ
જટિલતાઓછી જટિલવધુ જટિલ
ઉદાહરણોEmail spam detection, કિંમત આગાહCustomer segmentation, Market basket analysis

વિગતવાર તુલના:

Supervised Learning:

  • જાણીતા પરિણામો સાથે training data ની જરૂર
  • પ્રદર્શનનું મૂલ્યાંકન સરળતાથી કરી શકાય છે
  • આગાહીના કાર્યો માટે વપરાય છે

Unsupervised Learning:

  • પૂર્વ-નિર્ધારિત labels વિના ડેટા સાથે કામ કરે છે
  • ડેટામાં છુપાયેલા structures શોધે છે
  • અન્વેષણાત્મક ડેટા વિશ્લેષણ માટે વપરાય છે

મેમરી ટ્રીક: “LP-PF” (Labeled Prediction, Pattern Finding)

પ્રશ્ન 2(અ) OR [3 ગુણ]
#

વ્યાખ્યાયિત કરો: Classification, Regression અને clustering.

જવાબ:

ટેબલ: ML કાર્યોની વ્યાખ્યાઓ

કાર્યવ્યાખ્યાઆઉટપુટ પ્રકારઉદાહરણ
ClassificationDiscrete categories/classes ની આગાહCategoricalEmail: Spam/Not Spam
Regressionસતત આંકડાકીય મૂલ્યોની આગાહઆંકડાકીયઘરની કિંમત આગાહ
Clusteringસમાન ડેટા points ને જૂથ બનાવવાજૂથો/ClustersCustomer segmentation

વિગતવાર વ્યાખ્યાઓ:

  • Classification: શીખેલા patterns આધારે input data ને પૂર્વ-નિર્ધારિત વર્ગોમાં સોંપે છે
  • Regression: સતત મૂલ્યોની આગાહ કરવા variables વચ્ચેના સંબંધોનો અંદાજ કાઢે છે
  • Clustering: જૂથોની પૂર્વ જાણકારી વિના ડેટામાં કુદરતી જૂથો શોધે છે

મેમરી ટ્રીક: “CRC” (Categories, Real numbers, Clusters)

પ્રશ્ન 2(બ) OR [4 ગુણ]
#

Artificial Neural Network અને Biological Neural Network ની તુલના કરો.

જવાબ:

ટેબલ: ANN vs Biological Neural Network

પાસુંArtificial Neural NetworkBiological Neural Network
પ્રોસેસિંગDigital/BinaryAnalog
ઝડપઝડપી પ્રોસેસિંગધીમી પ્રોસેસિંગ
શીખવુંBackpropagation algorithmSynaptic plasticity
મેમરીઅલગ સ્ટોરેજકનેક્શનમાં વિતરિત
સ્ટ્રક્ચરસ્તરવાર આર્કિટેક્ચરજટિલ 3D structure
ખોટ સહનઓછુંવધુ
ઊર્જાવધુ પાવર consumptionઓછો ઊર્જા વપરાશ
સમાંતર પ્રક્રિયામર્યાદિત parallel processingવિશાળ parallel processing

મુખ્ય તફાવતો:

  • ANN: મગજથી પ્રેરિત ગાણિતિક મોડલ
  • Biological: વાસ્તવિક મગજના neural networks
  • હેતુ: ANN computation માટે, Biological cognition માટે
  • અનુકૂલનક્ષમતા: Biological networks વધુ flexible

મેમરી ટ્રીક: “DSML-CFEP” (Digital-Speed-Memory-Layer vs Complex-Fault-Energy-Parallel)

પ્રશ્ન 2(ક) OR [7 ગુણ]
#

Supervised, unsupervised અને reinforcement learning ની વિવિધ applications ની સૂચિ બનાવો.

જવાબ:

ટેબલ: વિવિધ Learning પ્રકારોની Applications

Learning પ્રકારApplicationsવાસ્તવિક જગતના ઉદાહરણો
SupervisedEmail classification, તબીબી નિદાન, Stock prediction, Credit scoringGmail spam filter, X-ray analysis, Trading algorithms
UnsupervisedCustomer segmentation, Anomaly detection, Data compressionMarket research, Fraud detection, Image compression
ReinforcementGame playing, Robotics, Autonomous vehicles, Resource allocationAlphaGo, Robot navigation, Self-driving cars

વિગતવાર Applications:

Supervised Learning:

  • Classification: Spam detection, sentiment analysis, image recognition
  • Regression: કિંમત આગાહ, હવામાન આગાહ, વેચાણ અંદાજ

Unsupervised Learning:

  • Clustering: Market segmentation, gene sequencing, recommendation systems
  • Association: Market basket analysis, web usage patterns

Reinforcement Learning:

  • Control Systems: Robot control, traffic management
  • Optimization: Resource scheduling, portfolio management

મેમરી ટ્રીક: “SCR-CRO” (Supervised-Classification-Regression, Unsupervised-Clustering-Association, Reinforcement-Control-Optimization)

પ્રશ્ન 3(અ) [3 ગુણ]
#

સિંગલ લેયર ફોરવર્ડ નેટવર્કને યોગ્ય ડાયાગ્રામ સાથે સમજાવો.

જવાબ:

સિંગલ લેયર ફોરવર્ડ નેટવર્ક (Perceptron) એ સૌથી સરળ neural network છે જેમાં input અને output વચ્ચે weights નો એક સ્તર હોય છે.

ડાયાગ્રામ:

graph LR
    X1[Input X1] --> |W1| S[Σ]
    X2[Input X2] --> |W2| S
    X3[Input X3] --> |W3| S
    B[Bias b] --> S
    S --> A[Activation Function]
    A --> Y[Output Y]

ઘટકો:

  • Inputs: X1, X2, X3 (feature values)
  • Weights: W1, W2, W3 (connection strengths)
  • Bias: Threshold adjustment માટે વધારાનું parameter
  • Summation: Inputs નો weighted sum
  • Activation: Output બનાવવા માટેનું function

ગાણિતિક સૂત્ર: Y = f(Σ(Wi × Xi) + b)

મેમરી ટ્રીક: “IWSA” (Input-Weight-Sum-Activation)

પ્રશ્ન 3(બ) [4 ગુણ]
#

Backpropagation પર ટૂંકી નોંધ લખો.

જવાબ:

Backpropagation એ supervised learning algorithm છે જે error calculation આધારે weights adjust કરીને neural networks ને train કરવા માટે વપરાય છે.

ટેબલ: Backpropagation પ્રક્રિયા

તબક્કોવર્ણનક્રિયા
Forward PassInput network દ્વારા આગળ વધે છેOutput ની ગણતરી
Error CalculationOutput ને target સાથે compare કરવુંError/loss શોધવો
Backward PassError પાછળની દિશામાં વધે છેWeights update કરવા
Weight UpdateGradient વાપરીને weights adjust કરવાError ઘટાડવો

મુખ્ય લક્ષણો:

  • Gradient Descent: Optimal weights શોધવા માટે calculus વાપરે છે
  • Chain Rule: દરેક weight ના error contribution ની ગણતરી
  • Iterative Process: Convergence સુધી પુનરાવર્તન
  • Learning Rate: Weight updates ની ઝડપ નિયંત્રિત કરે છે

પગલાં:

  1. Random weights initialize કરવા
  2. Output મેળવવા forward propagation
  3. Actual અને predicted વચ્ચે error ની ગણતરી
  4. Weights update કરવા backward propagation

મેમરી ટ્રીક: “FCBU” (Forward-Calculate-Backward-Update)

પ્રશ્ન 3(ક) [7 ગુણ]
#

ફીડ ફોરવર્ડ ન્યુરોન નેટવર્કના આર્કિટેક્ચરના components સમજાવો.

જવાબ:

ફીડ ફોરવર્ડ ન્યુરલ નેટવર્ક અનેક સ્તરો ધરાવે છે જ્યાં માહિતી input થી output સુધી એક દિશામાં વહે છે.

ડાયાગ્રામ:

graph LR
    subgraph Input Layer
    I1[X1]
    I2[X2]
    I3[X3]
    end
    
    subgraph Hidden Layer
    H1[N1]
    H2[N2]
    H3[N3]
    end
    
    subgraph Output Layer
    O1[Y1]
    O2[Y2]
    end
    
    I1 --> H1
    I1 --> H2
    I1 --> H3
    I2 --> H1
    I2 --> H2
    I2 --> H3
    I3 --> H1
    I3 --> H2
    I3 --> H3
    
    H1 --> O1
    H1 --> O2
    H2 --> O1
    H2 --> O2
    H3 --> O1
    H3 --> O2

ઘટકો:

1. Input Layer:

  • Raw data મેળવે છે
  • કોઈ processing નથી, માત્ર વિતરણ
  • Neurons ની સંખ્યા = features ની સંખ્યા

2. Hidden Layer(s):

  • Computation અને transformation કરે છે
  • Activation functions ધરાવે છે
  • અનેક hidden layers હોઈ શકે છે

3. Output Layer:

  • અંતિમ પરિણામો ઉત્પન્ન કરે છે
  • Neurons ની સંખ્યા = outputs ની સંખ્યા
  • Task પ્રકાર માટે યોગ્ય activation વાપરે છે

4. Weights અને Biases:

  • Weights: Neurons વચ્ચેની connection strengths
  • Biases: Threshold adjustment parameters

5. Activation Functions:

  • Non-linearity દાખલ કરે છે
  • સામાન્ય પ્રકારો: ReLU, Sigmoid, Tanh

મેમરી ટ્રીક: “IHO-WA” (Input-Hidden-Output, Weights-Activation)

પ્રશ્ન 3(અ) OR [3 ગુણ]
#

મલ્ટિલેયર ફીડ ફોરવર્ડ ANN ને ડાયાગ્રામ સાથે સમજાવો.

જવાબ:

મલ્ટિલેયર ફીડ ફોરવર્ડ ANN માં input અને output layers વચ્ચે અનેક hidden layers હોય છે, જે જટિલ pattern recognition સક્ષમ બનાવે છે.

ડાયાગ્રામ:

graph LR
    subgraph Input
    I1[X1]
    I2[X2]
    end
    
    subgraph Hidden1
    H11[H1]
    H12[H2]
    end
    
    subgraph Hidden2
    H21[H1]
    H22[H2]
    end
    
    subgraph Output
    O1[Y]
    end
    
    I1 --> H11
    I1 --> H12
    I2 --> H11
    I2 --> H12
    
    H11 --> H21
    H11 --> H22
    H12 --> H21
    H12 --> H22
    
    H21 --> O1
    H22 --> O1

લક્ષણો:

  • Deep Architecture: અનેક hidden layers
  • જટિલ Patterns: Non-linear relationships શીખી શકે છે
  • Universal Approximator: કોઈપણ સતત function નો અંદાજ લગાવી શકે છે

મેમરી ટ્રીક: “MDC” (Multiple layers, Deep learning, Complex patterns)

પ્રશ્ન 3(બ) OR [4 ગુણ]
#

સમજાવો ‘ReLU એ સૌથી વધુ ઉપયોગમાં લેવાતું Activation function છે.’

જવાબ:

ReLU (Rectified Linear Unit) તેની સરળતા અને deep networks માં અસરકારકતાને કારણે વ્યાપક રીતે વપરાય છે.

ટેબલ: ReLU કેમ લોકપ્રિય છે

ફાયદોવર્ણનલાભ
Computational Efficiencyસરળ max(0,x) operationઝડપી processing
Gradient FlowPositive values માટે vanishing gradient નથીવધુ સારું learning
SparsityNegative inputs માટે zero outputકાર્યક્ષમ representation
Non-linearityNon-linear વર્તન દાખલ કરે છેજટિલ pattern learning

ગાણિતિક વ્યાખ્યા: f(x) = max(0, x)

અન્ય Functions સાથે તુલના:

  • vs Sigmoid: Saturation સમસ્યા નથી, ઝડપી computation
  • vs Tanh: સરળ ગણતરી, વધુ સારો gradient flow
  • મર્યાદાઓ: Negative inputs માટે dead neurons સમસ્યા

સૌથી સામાન્ય કેમ:

  • Vanishing gradient સમસ્યા હલ કરે છે
  • Computationally કાર્યક્ષમ
  • વ્યવહારમાં સારું કામ કરે છે
  • Hidden layers માટે default પસંદગી

મેમરી ટ્રીક: “CGSN” (Computational, Gradient, Sparsity, Non-linear)

પ્રશ્ન 3(ક) OR [7 ગુણ]
#

Artificial Neural Network ની સ્ટેપ બાય સ્ટેપ લર્નિંગ પ્રક્રિયા સમજાવો.

જવાબ:

ANN Learning Process માં prediction error ઘટાડવા માટે iterative weight adjustment સામેલ છે.

ટેબલ: સ્ટેપ-બાય-સ્ટેપ લર્નિંગ પ્રક્રિયા

સ્ટેપપ્રક્રિયાવર્ણન
1. InitializationRandom weights સેટ કરવાનાના random values
2. Forward PropagationOutput ની ગણતરીInput → Hidden → Output
3. Error CalculationTarget સાથે સરખામણીLoss function computation
4. Backward PropagationGradients ની ગણતરીError → Hidden ← Input
5. Weight UpdateParameters adjust કરવાGradient descent
6. Iterationપ્રક્રિયા પુનરાવર્તનConvergence સુધી

વિગતવાર સ્ટેપ્સ:

સ્ટેપ 1: Weights Initialize કરવા

  • બધા weights અને biases ને નાના random values સોંપવા
  • Symmetry breaking સમસ્યા અટકાવે છે

સ્ટેપ 2: Forward Propagation

  • Input data network layers દ્વારા આગળ વહે છે
  • દરેક neuron weighted sum + activation ની ગણતરી કરે છે

સ્ટેપ 3: Error ની ગણતરી

  • Network output ને desired output સાથે compare કરવું
  • MSE અથવા Cross-entropy જેવા loss functions વાપરવા

સ્ટેપ 4: Backward Propagation

  • દરેક weight માટે error gradient ની ગણતરી
  • Error પાછળની દિશામાં propagate કરવા chain rule વાપરવું

સ્ટેપ 5: Weights Update કરવા

  • Gradient descent વાપરીને weights adjust કરવા
  • New_weight = Old_weight - (learning_rate × gradient)

સ્ટેપ 6: પ્રક્રિયા પુનરાવર્તન

  • Error converge થાય અથવા maximum epochs સુધી ચાલુ રાખવું
  • Overfitting ટાળવા validation performance monitor કરવું

મેમરી ટ્રીક: “IFEBWI” (Initialize-Forward-Error-Backward-Weight-Iterate)

પ્રશ્ન 4(અ) [3 ગુણ]
#

નેચરલ લેંગ્વેજ પ્રોસેસિંગના વિવિધ ફાયદા અને ગેરફાયદાની યાદી બનાવો.

જવાબ:

ટેબલ: NLP ફાયદા અને ગેરફાયદા

ફાયદાગેરફાયદા
Automation of text processingઅસ્પષ્ટતા in human language
24/7 ઉપલબ્ધતા customer service માટેContext Understanding પડકારો
બહુભાષીય સપોર્ટ ક્ષમતાઓસાંસ્કૃતિક સૂક્ષ્મતાઓ મુશ્કેલી
સ્કેલેબિલિટી મોટા datasets માટેઉચ્ચ Computational જરૂરિયાતો
સુસંગતતા responses માંડેટા ગોપનીયતા ચિંતાઓ
લાગત ઘટાડવી operations માંમર્યાદિત સર્જનાત્મકતા responses માં

મુખ્ય પોઈન્ટ્સ:

  • ફાયદા: કાર્યક્ષમતા, સુલભતા, સુસંગતતા
  • ગેરફાયદા: જટિલતા, resource જરૂરિયાતો, મર્યાદાઓ
  • સંતુલન: ઘણી applications માં ફાયદા પડકારો કરતાં વધુ છે

મેમરી ટ્રીક: “AMS-ACC” (Automation-Multilingual-Scalability vs Ambiguity-Context-Computational)

પ્રશ્ન 4(બ) [4 ગુણ]
#

NLP માં પ્રી-પ્રોસેસિંગ તકનીકોની સૂચિ બનાવો અને પાયથોન પ્રોગ્રામ વડે કોઈપણ એકને demonstrate કરો.

જવાબ:

ટેબલ: NLP પ્રીપ્રોસેસિંગ તકનીકો

તકનીકહેતુઉદાહરણ
Tokenizationટેક્સ્ટને words/sentences માં વિભાજન“Hello world” → [“Hello”, “world”]
Stop Words Removalસામાન્ય શબ્દો દૂર કરવા“the”, “is”, “and” દૂર કરવા
Stemmingશબ્દોને root form માં ઘટાડવા“running” → “run”
LemmatizationDictionary form માં કન્વર્ટ કરવું“better” → “good”
POS TaggingParts of speech ઓળખવા“run” → verb
Named Entity RecognitionEntities ઓળખવા“Apple” → Organization

Python પ્રોગ્રામ - Tokenization:

import nltk
from nltk.tokenize import word_tokenize, sent_tokenize

# Sample text
text = "Natural Language Processing અદ્ભુત છે. તે કોમ્પ્યુટરોને માનવી ભાષા સમજવામાં મદદ કરે છે."

# Word tokenization
words = word_tokenize(text)
print("Words:", words)

# Sentence tokenization  
sentences = sent_tokenize(text)
print("Sentences:", sentences)

મેમરી ટ્રીક: “TSSL-PN” (Tokenization-Stop-Stemming-Lemmatization, POS-NER)

પ્રશ્ન 4(ક) [7 ગુણ]
#

NLP ના phases સમજાવો.

જવાબ:

NLP Phases natural language ને process અને સમજવા માટેના વ્યવસ્થિત અભિગમને દર્શાવે છે.

ટેબલ: NLP Phases

તબક્કોવર્ણનપ્રક્રિયાઉદાહરણ
Lexical AnalysisTokenization અને word identificationટેક્સ્ટને tokens માં વિભાજન“હું ખુશ છું” → [“હું”, “ખુશ”, “છું”]
Syntactic Analysisવ્યાકરણ અને વાક્ય structureParse trees, POS taggingNoun, verb, adjective ઓળખવા
Semantic Analysisઅર્થ extractionWord sense disambiguation“બેંક” → financial vs નદીનો કિનારો
Discourse Integrationવાક્યો પારના contextPronouns, references resolve કરવા“તે” refers to “જોન”
Pragmatic AnalysisIntent અને context understandingSituation/culture consider કરવુંવ્યંગ, idioms interpretation

વિગતવાર સમજાવટ:

1. Lexical Analysis:

  • NLP pipeline નો પ્રથમ તબક્કો
  • Character stream ને tokens માં કન્વર્ટ કરે છે
  • Punctuation અને special characters દૂર કરે છે

2. Syntactic Analysis:

  • વ્યાકરણનું structure વિશ્લેષણ કરે છે
  • Parse trees બનાવે છે
  • વાક્યના ઘટકો ઓળખે છે

3. Semantic Analysis:

  • ટેક્સ્ટમાંથી અર્થ extract કરે છે
  • શબ્દની અસ્પષ્ટતા handle કરે છે
  • શબ્દોને concepts સાથે map કરે છે

4. Discourse Integration:

  • વાક્ય સ્તર પાર ટેક્સ્ટનું વિશ્લેષણ કરે છે
  • વાક્યો પાર context જાળવે છે
  • References અને connections resolve કરે છે

5. Pragmatic Analysis:

  • વાસ્તવિક જગતનો context consider કરે છે
  • Speaker નો intent સમજે છે
  • રૂપક ભાષા handle કરે છે

મેર્મેઈડ ડાયાગ્રામ:

graph TD
    A[Raw Text] --> B[Lexical Analysis]
    B --> C[Syntactic Analysis]
    C --> D[Semantic Analysis]
    D --> E[Discourse Integration]
    E --> F[Pragmatic Analysis]
    F --> G[Understanding]

મેમરી ટ્રીક: “LSSDP” (Lexical-Syntactic-Semantic-Discourse-Pragmatic)

પ્રશ્ન 4(અ) OR [3 ગુણ]
#

નેચરલ લેંગ્વેજ પ્રોસેસિંગ શું છે? તેની applications ની યાદી બનાવો.

જવાબ:

નેચરલ લેંગ્વેજ પ્રોસેસિંગ (NLP) AI ની એક શાખા છે જે કોમ્પ્યુટરોને માનવી ભાષાને અર્થપૂર્ણ રીતે સમજવા, અર્થઘટન કરવા અને generate કરવા સક્ષમ બનાવે છે.

ટેબલ: NLP Applications

વર્ગApplicationsઉદાહરણો
કોમ્યુનિકેશનChatbots, Virtual assistantsSiri, Alexa, ChatGPT
અનુવાદભાષા અનુવાદGoogle Translate
વિશ્લેષણSentiment analysis, Text miningSocial media monitoring
શોધમાહિતી પુનઃપ્રાપ્તિSearch engines
લેખનવ્યાકરણ તપાસ, Auto-completeGrammarly, predictive text
બિઝનેસદસ્તાવેજ processing, Spam detectionEmail filtering

મુખ્ય Applications:

  • મશીન અનુવાદ: ભાષાઓ વચ્ચે ટેક્સ્ટ કન્વર્ટ કરવું
  • સ્પીચ રેકગ્નિશન: વાણીને ટેક્સ્ટમાં કન્વર્ટ કરવું
  • ટેક્સ્ટ સમરાઈઝેશન: સંક્ષિપ્ત સારાંશ બનાવવા
  • પ્રશ્ન જવાબ: પ્રશ્નોના જવાબો આપવા

મેમરી ટ્રીક: “CTAS-WB” (Communication-Translation-Analysis-Search, Writing-Business)

પ્રશ્ન 4(બ) OR [4 ગુણ]
#

NLTK માં WordNet સાથે કરવામાં આવતા કાર્યોની સૂચિ બનાવો અને python code વડે કોઈપણ એકને demonstrate કરો.

જવાબ:

ટેબલ: NLTK માં WordNet કાર્યો

કાર્યવર્ણનહેતુ
Synsetsસમાનાર્થી શબ્દો શોધવાશબ્દ સમાનતા
Definitionsશબ્દના અર્થો મેળવવાContext સમજવા
Examplesઉપયોગના ઉદાહરણોવ્યવહારિક application
HyponymsSpecific terms શોધવાવંશવેલો સંબંધો
Hypernymsસામાન્ય terms શોધવાCategory identification
Antonymsવિરોધી શબ્દો શોધવાContrast analysis

Python કોડ - Synsets અને Definitions:

from nltk.corpus import wordnet

# 'સારું' શબ્દ માટે synsets મેળવવા
synsets = wordnet.synsets('good')
print("Synsets:", synsets)

# વ્યાખ્યા મેળવવી
definition = synsets[0].definition()
print("Definition:", definition)

# ઉદાહરણો મેળવવા
examples = synsets[0].examples()
print("Examples:", examples)

મેમરી ટ્રીક: “SDEHA” (Synsets-Definitions-Examples-Hyponyms-Antonyms)

પ્રશ્ન 4(ક) OR [7 ગુણ]
#

NLP માં ambiguities ના પ્રકારો સમજાવો.

જવાબ:

NLP Ambiguities ત્યારે થાય છે જ્યારે ટેક્સ્ટનું અનેક રીતે અર્થઘટન થઈ શકે છે, જે automated understanding માટે પડકારો બનાવે છે.

ટેબલ: Ambiguities ના પ્રકારો

પ્રકારવર્ણનઉદાહરણનિવારણ
Lexicalએક શબ્દના અનેક અર્થ“બેંક” (financial/નદીનો કિનારો)Context analysis
Syntacticઅનેક વ્યાકરણ અર્થઘટન“ઉડતા વિમાનો ખતરનાક હોઈ શકે છે”Parse trees
Semanticવાક્ય સ્તરે અનેક અર્થ“સમય તીરની જેમ ઉડે છે”Semantic analysis
PragmaticContext-આધારિત અર્થઘટન“શું તમે મીઠું આપી શકશો?”Situational context
Referentialઅસ્પષ્ટ pronoun references“જોને બોબને કહ્યું તે ખોટો હતો”Discourse analysis

વિગતવાર સમજાવટ:

1. Lexical Ambiguity:

  • એક જ શબ્દ, વિવિધ અર્થો
  • Homonyms અને polysemes
  • ઉદાહરણ: “બેટ” (પ્રાણી/રમત સાધન)

2. Syntactic Ambiguity:

  • અનેક વ્યાકરણ structures
  • વિવિધ parse trees શક્ય
  • ઉદાહરણ: “મેં દૂરબીન સાથે એક માણસને જોયો”

3. Semantic Ambiguity:

  • વાક્ય-સ્તરે અર્થની ગૂંચવણ
  • અનેક અર્થઘટન શક્ય
  • ઉદાહરણ: “સંબંધીઓની મુલાકાત કંટાળાજનક હોઈ શકે છે”

4. Pragmatic Ambiguity:

  • Context અને intent આધારિત
  • સાંસ્કૃતિક અને પરિસ્થિતિગત પરિબળો
  • ઉદાહરણ: વ્યંગ અને indirect requests

5. Referential Ambiguity:

  • Entities ના અસ્પષ્ટ references
  • Pronoun resolution પડકારો
  • ઉદાહરણ: અનેક શક્ય antecedents

નિવારણ વ્યૂહરચનાઓ:

  • Context analysis અને machine learning
  • આંકડાકીય disambiguation પદ્ધતિઓ
  • Knowledge bases અને ontologies

મેમરી ટ્રીક: “LSSPR” (Lexical-Syntactic-Semantic-Pragmatic-Referential)

પ્રશ્ન 5(અ) [3 ગુણ]
#

બેગ ઓફ વર્ડ્સને ઉદાહરણ સાથે સમજાવો.

જવાબ:

બેગ ઓફ વર્ડ્સ (BoW) એ ટેક્સ્ટ પ્રતિનિધિત્વ પદ્ધતિ છે જે શબ્દની આવર્તન આધારે ટેક્સ્ટને આંકડાકીય vectors માં કન્વર્ટ કરે છે, વ્યાકરણ અને શબ્દ ક્રમને અવગણીને.

ટેબલ: BoW પ્રક્રિયા

સ્ટેપપ્રક્રિયાવર્ણન
1. Tokenizationટેક્સ્ટને શબ્દોમાં વિભાજનVocabulary બનાવવી
2. Vocabulary Creationઅનન્ય શબ્દોનો સંગ્રહTerms નો શબ્દકોશ
3. Vector Creationશબ્દ આવર્તન ગણવીઆંકડાકીય પ્રતિનિધિત્વ

ઉદાહરણ:

દસ્તાવેજો:

  • Doc1: “હું મશીન લર્નિંગ પસંદ કરું છું”
  • Doc2: “મશીન લર્નિંગ અદ્ભુત છે”

Vocabulary: [હું, પસંદ, મશીન, લર્નિંગ, અદ્ભુત, છે, કરું, છું]

BoW Vectors:

  • Doc1: [1, 1, 1, 1, 0, 0, 1, 1]
  • Doc2: [0, 0, 1, 1, 1, 1, 0, 0]

લક્ષણો:

  • ક્રમ સ્વતંત્ર: શબ્દ ક્રમ અવગણવામાં આવે છે
  • આવર્તન આધારિત: શબ્દ occurrences ગણે છે
  • Sparse Representation: ઘણા શૂન્ય મૂલ્યો

મેમરી ટ્રીક: “TVC” (Tokenize-Vocabulary-Count)

પ્રશ્ન 5(બ) [4 ગુણ]
#

Word2Vec શું છે? તેના steps સમજાવો.

જવાબ:

Word2Vec એ neural network-આધારિત તકનીક છે જે મોટા text corpora માં તેમના context થી શીખીને શબ્દોના dense vector representations બનાવે છે.

ટેબલ: Word2Vec Models

મોડલઅભિગમઆગાહી
CBOWContinuous Bag of Wordsસંદર્ભ → લક્ષ્ય શબ્દ
Skip-gramSkip-gram with Negative Samplingલક્ષ્ય શબ્દ → સંદર્ભ

Word2Vec ના સ્ટેપ્સ:

1. ડેટા તૈયારી:

  • મોટો text corpus એકત્ર કરવો
  • ટેક્સ્ટ સાફ કરવું અને preprocess કરવું
  • Training pairs બનાવવા

2. મોડલ આર્કિટેક્ચર:

  • Input layer (one-hot encoded words)
  • Hidden layer (embedding layer)
  • Output layer (prediction માટે softmax)

3. Training પ્રક્રિયા:

  • CBOW: context થી target word ની આગાહ
  • Skip-gram: target word થી context ની આગાહ
  • Weights update કરવા backpropagation વાપરવું

4. Vector Extraction:

  • Hidden layer થી weight matrix extract કરવું
  • દરેક row word embedding દર્શાવે છે
  • સામાન્યતઃ 100-300 dimensions

લાભો:

  • Semantic relationships કેપ્ચર કરે છે
  • સમાન શબ્દોના સમાન vectors હોય છે
  • Arithmetic operations સપોર્ટ કરે છે (રાજા - પુરુષ + સ્ત્રી = રાણી)

મેમરી ટ્રીક: “DMAT” (Data-Model-Architecture-Training)

પ્રશ્ન 5(ક) [7 ગુણ]
#

NLP ની applications ની યાદી બનાવો અને કોઈપણ એકને વિગતવાર સમજાવો.

જવાબ:

ટેબલ: NLP Applications

Applicationવર્ણનઉદ્યોગ ઉપયોગ
મશીન અનુવાદભાષા રૂપાંતરણવૈશ્વિક કોમ્યુનિકેશન
Sentiment Analysisમત ખનનSocial media monitoring
Chatbotsવાતચીત AICustomer service
ટેક્સ્ટ સારાંશસામગ્રી સંકુચનસમાચાર, સંશોધન
સ્પીચ રેકગ્નિશનઅવાજ થી ટેક્સ્ટVirtual assistants
માહિતી નિષ્કર્ષણટેક્સ્ટમાંથી ડેટા માઇનિંગBusiness intelligence
પ્રશ્ન જવાબસ્વચાલિત પ્રતિસાદોSearch engines
સ્પામ શોધEmail filteringCybersecurity

વિગતવાર સમજાવટ: Sentiment Analysis

Sentiment Analysis એ ટેક્સ્ટ ડેટામાં વ્યક્ત કરાયેલ ભાવનાત્મક tone અને મંતવ્યો નક્કી કરવાની પ્રક્રિયા છે.

ઘટકો:

  • ટેક્સ્ટ પ્રીપ્રોસેસિંગ: સફાઈ અને tokenization
  • Feature Extraction: TF-IDF, word embeddings
  • વર્ગીકરણ: સકારાત્મક, નકારાત્મક, તટસ્થ
  • વિશ્વાસ સ્કોરિંગ: Sentiment ની મજબૂતાઈ

પ્રક્રિયા સ્ટેપ્સ:

  1. ડેટા સંગ્રહ: Reviews, social media થી ટેક્સ્ટ એકત્ર કરવું
  2. પ્રીપ્રોસેસિંગ: Noise દૂર કરવો, ટેક્સ્ટ normalize કરવું
  3. Feature Engineering: ટેક્સ્ટને આંકડાકીય features માં કન્વર્ટ કરવું
  4. મોડલ ટ્રેનિંગ: વર્ગીકરણ માટે ML algorithms વાપરવા
  5. આગાહી: નવા ટેક્સ્ટના sentiment ની વર્ગીકરણ
  6. મૂલ્યાંકન: ચોકસાઈ અને કામગીરી માપવી

Applications:

  • બ્રાન્ડ મોનિટરિંગ: ગ્રાહક મંતવ્યોને ટ્રેક કરવા
  • પ્રોડક્ટ રિવ્યૂ: ગ્રાહક પ્રતિસાદનું વિશ્લેષણ
  • સોશિયલ મીડિયા: જાહેર sentiment ને monitor કરવું
  • બજાર સંશોધન: ગ્રાહક પસંદગીઓ સમજવી

મેમરી ટ્રીક: “MSCTSIQ-S” (Machine-Sentiment-Chatbot-Text-Speech-Information-Question-Spam)

પ્રશ્ન 5(અ) OR [3 ગુણ]
#

ઉદાહરણ સાથે TFIDF સમજાવો.

જવાબ:

TF-IDF (Term Frequency-Inverse Document Frequency) દસ્તાવેજોના સંગ્રહ સાપેક્ષે દસ્તાવેજમાં શબ્દની મહત્ત્વતા માપે છે.

સૂત્ર: TF-IDF = TF(t,d) × IDF(t)

જ્યાં:

  • TF(t,d) = (દસ્તાવેજ d માં term t કેટલી વખત આવે છે) / (દસ્તાવેજ d માં કુલ terms)
  • IDF(t) = log(કુલ દસ્તાવેજો / term t ધરાવતા દસ્તાવેજો)

ઉદાહરણ:

દસ્તાવેજો:

  • Doc1: “મશીન લર્નિંગ સારું છે”
  • Doc2: “લર્નિંગ algorithms સારા છે”
  • Doc3: “મશીન algorithms સારું કામ કરે છે”

ટેબલ: “મશીન” માટે TF-IDF ગણતરી

દસ્તાવેજTFIDFTF-IDF
Doc11/4 = 0.25log(3/2) = 0.180.25 × 0.18 = 0.045
Doc20/4 = 0log(3/2) = 0.180 × 0.18 = 0
Doc31/4 = 0.25log(3/2) = 0.180.25 × 0.18 = 0.045

મુખ્ય પોઈન્ટ્સ:

  • ઉચ્ચ TF-IDF: વિશિષ્ટ દસ્તાવેજમાં મહત્વપૂર્ણ શબ્દ
  • નીચો TF-IDF: દસ્તાવેજો પાર સામાન્ય શબ્દ
  • Applications: માહિતી પુનઃપ્રાપ્તિ, text mining

મેમરી ટ્રીક: “TI-FD” (Term frequency, Inverse Document frequency)

પ્રશ્ન 5(બ) OR [4 ગુણ]
#

TFIDF અને BOW સાથેના challenges વિશે સમજાવો.

જવાબ:

ટેબલ: TF-IDF અને BOW સાથેના પડકારો

પડકારTF-IDFBOWઅસર
Semantic Understandingઅર્થ કેપ્ચર કરી શકતું નથીશબ્દ સંબંધો અવગણે છેContext ની ખરાબ સમજ
શબ્દ ક્રમસ્થિતિ અવગણે છેક્રમ ખોવાઈ જાય છેવ્યાકરણ અર્થ ખોવાઈ જાય છે
Sparsityઉચ્ચ-dimensional vectorsઘણા શૂન્ય મૂલ્યોમેમરી અકાર્યક્ષમ
Vocabulary માપમોટો feature spaceCorpus સાથે વધે છેComputational જટિલતા
Out-of-Vocabularyઅજાણ્યા શબ્દો અવગણે છેનવા શબ્દો handle કરતું નથીમર્યાદિત સામાન્યીકરણ
Polysemyઅનેક અર્થોવિવિધ senses માટે સમાન વર્તનઅસ્પષ્ટતા સમસ્યાઓ

વિગતવાર પડકારો:

1. Semantic Understanding નો અભાવ:

  • શબ્દો સ્વતંત્ર features તરીકે ગણાય છે
  • Synonyms અથવા સંબંધિત concepts સમજી શકતા નથી
  • “સારું” અને “ઉત્તમ” અલગ રીતે ગણાય છે

2. શબ્દ ક્રમ ખોવાઈ જવો:

  • “કુતરો માણસને કરડે છે” vs “માણસ કુતરાને કરડે છે” સમાન representation
  • Context અને વ્યાકરણની માહિતી ખોવાઈ જાય છે
  • વાક્ય structure અવગણવામાં આવે છે

3. ઉચ્ચ Dimensionality:

  • Vector size vocabulary size ની બરાબર
  • મોટાભાગે શૂન્યો સાથે sparse matrices
  • Storage અને computation સમસ્યાઓ

4. Context Insensitivity:

  • એક જ શબ્દ વિવિધ contexts માં સમાન ગણાય છે
  • “Apple” કંપની vs ફળ સમાન representation
  • Polysemy અને homonymy સમસ્યાઓ

ઉકેલો:

  • Word Embeddings: Word2Vec, GloVe
  • Contextual Models: BERT, GPT
  • N-grams: કેટલાક શબ્દ ક્રમ કેપ્ચર કરવા
  • Dimensionality Reduction: PCA, SVD

મેમરી ટ્રીક: “SSVO-CP” (Semantic-Sequence-Vocabulary-OOV, Context-Polysemy)

પ્રશ્ન 5(ક) OR [7 ગુણ]
#

GloVe ની કામગીરી સમજાવો.

જવાબ:

GloVe (Global Vectors for Word Representation) word embeddings બનાવવા માટે global આંકડાકીય માહિતીને local context windows સાથે જોડે છે.

ટેબલ: GloVe vs અન્ય પદ્ધતિઓ

પાસુંGloVeWord2Vecપરંપરાગત પદ્ધતિઓ
અભિગમGlobal + Local statisticsLocal context windowsઆવર્તન-આધારિત
TrainingMatrix factorizationNeural networksગણતરી પદ્ધતિઓ
કાર્યક્ષમતાઝડપી trainingધીમી trainingખૂબ ઝડપી
પ્રદર્શનઉચ્ચ ચોકસાઈસારી ચોકસાઈમર્યાદિત પ્રદર્શન

કામગીરી પ્રક્રિયા:

1. Co-occurrence Matrix Construction:

  • Context windows માં શબ્દ co-occurrences ગણવા
  • Global statistics matrix બનાવવો
  • Xij = word j, word i ના context માં કેટલી વખત આવે છે

2. Ratio ગણતરી:

  • સંભાવના ratios ની ગણતરી
  • P(k|i) = Xik / Xi (word i આપવામાં આવે તો word k ની સંભાવના)
  • સંભાવનાઓ વચ્ચેના અર્થપૂર્ણ ratios પર ધ્યાન

3. Objective Function:

  • Weighted least squares objective minimize કરવું
  • J = Σ f(Xij)(wi^T wj + bi + bj - log Xij)²
  • જ્યાં f(x) weighting function છે

4. Vector Learning:

  • Objective optimize કરવા gradient descent વાપરવું
  • Word vectors wi અને context vectors wj શીખવા
  • અંતિમ representation બંને vectors combine કરે છે

મુખ્ય લક્ષણો:

Global Statistics:

  • સમગ્ર corpus માહિતી વાપરે છે
  • Global word relationships કેપ્ચર કરે છે
  • Local પદ્ધતિઓ કરતાં વધુ સ્થિર

કાર્યક્ષમતા:

  • Co-occurrence statistics પર train કરે છે
  • Neural network પદ્ધતિઓ કરતાં ઝડપી
  • મોટા corpora માટે scalable

પ્રદર્શન:

  • Analogy tasks પર સારું પ્રદર્શન
  • Semantic અને syntactic બંને સંબંધો કેપ્ચર કરે છે
  • Similarity tasks પર સારી કામગીરી

ગાણિતિક આધાર:

J = Σ(i,j=1 to V) f(Xij)(wi^T wj + bi + bj - log Xij)²

જ્યાં:

  • V = vocabulary size
  • Xij = co-occurrence count
  • wi, wj = word vectors
  • bi, bj = bias terms
  • f(x) = weighting function

ફાયદા:

  • લાભો સંયોજન: Global statistics + local context
  • સમજી શકાય તેવું: સ્પષ્ટ ગાણિતિક આધાર
  • કાર્યક્ષમ: Word2Vec કરતાં ઝડપી training
  • અસરકારક: વિવિધ tasks પર સારી કામગીરી

Applications:

  • શબ્દ સમાનતા: સંબંધિત શબ્દો શોધવા
  • Analogy Tasks: રાજા - પુરુષ + સ્ત્રી = રાણી
  • ટેક્સ્ટ વર્ગીકરણ: Feature representation
  • મશીન અનુવાદ: Cross-lingual mappings

મેમરી ટ્રીક: “CROF-PGAE” (Co-occurrence-Ratio-Objective-Function, Performance-Global-Advantage-Efficiency)

સંબંધિત

Foundation of AI and ML (4351601) - Summer 2024 Solution (Gujarati)
Study-Material Solutions Ai-Ml 4351601 2024 Summer Gujarati
Computer Networks & Data Communication (4361101) - Summer 2025 Solution (Gujarati)
Study-Material Solutions Computer-Networks 4361101 2025 Summer Gujarati
Foundation of AI and ML (4351601) - Winter 2024 Solution (Gujarati)
Study-Material Solutions Ai-Ml 4351601 2024 Winter Gujarati
VLSI (4361102) - Summer 2025 Solution - ગુજરાતી
Study-Material Solutions Vlsi 4361102 2025 Summer
વાયરલેસ સેન્સર નેટવર્ક્સ અને IoT (4353201) - સમર 2025 સોલ્યુશન
32 મિનિટ
Study-Material Solutions Wireless-Sensor-Networks Iot 4353201 2025 Summer
Object Oriented Programming with Java (4341602) - Summer 2024 Solution (Gujarati)
Study-Material Solutions Java Oop 4341602 2024 Summer Gujarati