મુખ્ય સામગ્રી પર જાઓ
  1. સંસાધનો/
  2. અભ્યાસ સામગ્રી/
  3. ઇન્ફોર્મેશન ટેકનોલોજી એન્જિનિયરિંગ/
  4. આઈટી સેમેસ્ટર 5/
  5. આર્ટિફિશિયલ ઇન્ટેલિજન્સ અને મશીન લર્નિંગ (4351601)/

Foundation of AI and ML (4351601) - Winter 2024 Solution (Gujarati)

·
Study-Material Solutions Ai-Ml 4351601 2024 Winter Gujarati
મિલવ ડબગર
લેખક
મિલવ ડબગર
ઇલેક્ટ્રિકલ અને ઇલેક્ટ્રોનિક મેન્યુફેક્ચરિંગ ઉદ્યોગમાં અનુભવી લેક્ચરર. એમ્બેડેડ સિસ્ટમ્સ, ઈમેજ પ્રોસેસિંગ, ડેટા સાયન્સ, મેટલેબ, પાયથન, STM32માં કુશળ. એલ.ડી. કોલેજ ઓફ એન્જિનિયરિંગ - અમદાવાદથી કમ્યુનિકેશન સિસ્ટમ્સ એન્જિનિયરિંગમાં માસ્ટર્સ ડિગ્રી ધરાવતા મજબૂત શિક્ષણ વ્યાવસાયિક.
અનુક્રમણિકા

પ્રશ્ન 1(અ) [3 ગુણ]
#

નીચેના પदોને વ્યાખ્યાયિત કરો: 1) Fuzzy Logic. 2) Expert System.

જવાબ:

પદવ્યાખ્યા
Fuzzy Logicઅસ્પષ્ટ તર્કશાસ્ત્ર જે 0 અને 1 વચ્ચે સત્યતાની ડિગ્રી સાથે અંદાજિત તર્ક કરે છે
Expert Systemકુશળ માનવીના નિર્ણયોની નકલ કરતી AI પ્રોગ્રામ જે knowledge base અને inference engine વાપરે છે
  • મુખ્ય લક્ષણો: બંને અનિશ્ચિતતા અને અધૂરી માહિતી સંભાળે છે
  • ઉપયોગો: મેડિકલ નિદાન, ઔદ્યોગિક નિયંત્રણ સિસ્ટમ

મેમરી ટ્રીક: “અસ્પષ્ટ કુશળતા અનિશ્ચિત નિર્ણયો લે છે”


પ્રશ્ન 1(બ) [4 ગુણ]
#

નીચેના પદોને વ્યાખ્યાયિત કરો: 1) Machine Learning. 2) Reinforcement Learning.

જવાબ:

પદવ્યાખ્યામુખ્ય લાક્ષણિકતા
Machine Learningઅલ્ગોરિધમ જે અનુભવ દ્વારા આપોઆપ પ્રદર્શન સુધારે છે સ્પષ્ટ programming વિનાડેટા પેટર્નમાંથી શીખવું
Reinforcement LearningAgent પુરસ્કાર/દંડ વાપરીને પર્યાવરણ સાથે trial-and-error દ્વારા શ્રેષ્ઠ ક્રિયાઓ શીખે છેfeedback દ્વારા શીખવું

આકૃતિ:

graph LR
    A[ડેટા] --> B[ML Algorithm] --> C[Model] --> D[આગાહીઓ]
    E[પર્યાવરણ] --> F[RL Agent] --> G[ક્રિયાઓ] --> E
    E --> H[પુરસ્કારો] --> F

મેમરી ટ્રીક: “ML ડેટામાંથી શીખે, RL પુરસ્કારોમાંથી શીખે”


પ્રશ્ન 1(ક) [7 ગુણ]
#

Artificial Intelligence ના પ્રકારો વિશે વિગતવાર સમજૂતી યોગ્ય રેખાકૃતિ સાથે આપો.

જવાબ:

AI પ્રકારોનું ટેબલ:

પ્રકારવર્ણનક્ષમતાઉદાહરણો
Narrow AIવિશિષ્ટ કાર્યો માટે રચાયેલમર્યાદિત ડોમેન કુશળતાSiri, Chess programs
General AIબધા ક્ષેત્રોમાં માનવ સ્તરની બુદ્ધિબહુ-ડોમેન તર્કહાલમાં સૈદ્ધાંતિક
Super AIમાનવ બુદ્ધિ કરતાં વધુમાનવ ક્ષમતાથી આગળભવિષ્યની કલ્પના

આકૃતિ:

graph TD
    A[Artificial Intelligence] --> B[Narrow AI<br/>Weak AI]
    A --> C[General AI<br/>Strong AI]
    A --> D[Super AI]
    
    B --> E[કાર્ય-વિશિષ્ટ<br/>વર્તમાન વાસ્તવિકતા]
    C --> F[માનવ-સ્તર<br/>ભવિષ્યનું લક્ષ્ય]
    D --> G[માનવથી આગળ<br/>સૈદ્ધાંતિક]
  • વર્તમાન સ્થિતિ: આપણે Narrow AI યુગમાં છીએ
  • વિકાસ માર્ગ: Narrow → General → Super AI
  • સમયમર્યાદા: General AI 20-30 વર્ષમાં અપેક્ષિત

મેમરી ટ્રીક: “સાંકડું હવે, સામાન્ય લક્ષ્ય, સુપર શીઘ્ર”


પ્રશ્ન 1(ક) OR [7 ગુણ]
#

AI system design કરતા સમયે ethics સાથે સંબંધિત વિવિધ પાસાની સમજૂતી આપો. ઉપરાંત, AI System ની મર્યાદાઓની પણ વિગતવાર સમજૂતી આપો.

જવાબ:

AI નીતિશાસ્ત્ર ટેબલ:

નૈતિક પાસુંવર્ણનઅમલીકરણ
Fairnessપક્ષપાત અને ભેદભાવ ટાળવુંવિવિધ training data
Transparencyસમજાવી શકાય તેવા AI નિર્ણયોસ્પષ્ટ algorithms
Privacyયુઝર ડેટાનું રક્ષણડેટા encryption
AccountabilityAI ક્રિયાઓ માટે જવાબદારીમાનવ દેખરેખ

AI મર્યાદાઓ:

  • ડેટા પરાધીનતા: મોટા, ગુણવત્તાયુક્ત datasets જોઈએ
  • સામાન્ય બુદ્ધિનો અભાવ: માનવોની જેમ સંદર્ભ સમજી શકતું નથી
  • નાજુકતા: અનપેક્ષિત પરિસ્થિતિઓમાં નિષ્ફળ જાય છે
  • Black Box સમસ્યા: નિર્ણયો સમજાવવા મુશ્કેલ

મેમરી ટ્રીક: “ન્યાયી, પારદર્શક, ખાનગી, જવાબદાર AI ને ડેટા, સામાન્ય બુદ્ધિ, નાજુકતા, કાળા બોક્સની સમસ્યાઓ છે”


પ્રશ્ન 2(અ) [3 ગુણ]
#

Reinforcement learning ની લાક્ષણિકતાની યાદી આપો.

જવાબ:

લાક્ષણિકતાવર્ણન
Trial-and-ErrorAgent પ્રયોગ દ્વારા શીખે છે
Reward-Basedપુરસ્કાર/દંડ દ્વારા feedback
Sequential Decision Makingક્રિયાઓ ભવિષ્યની અવસ્થાઓને અસર કરે છે
Exploration vs Exploitationનવી ક્રિયાઓ અજમાવવા અને જાણીતી સારી ક્રિયાઓ વાપરવા વચ્ચેનું સંતુલન

મેમરી ટ્રીક: “પ્રયોગ પુરસ્કાર ક્રમિક શોધ”


પ્રશ્ન 2(બ) [4 ગુણ]
#

Positive reinforcement અને Negative reinforcement સમજાવો.

જવાબ:

તુલનાત્મક ટેબલ:

પ્રકારવ્યાખ્યાઅસરઉદાહરણ
Positive Reinforcementવર્તન વધારવા માટે આનંદદાયક stimulus ઉમેરવુંઇચ્છિત વર્તન વધારે છેસારા પ્રદર્શન માટે ઇનામ આપવું
Negative Reinforcementવર્તન વધારવા માટે અપ્રિય stimulus દૂર કરવુંઇચ્છિત વર્તન વધારે છેકાર્ય પૂર્ણ થયા પછી alarm બંધ કરવું

મુખ્ય તફાવત: બંને વર્તન વધારે છે, પરંતુ positive પુરસ્કાર ઉમેરે છે જ્યારે negative સજા દૂર કરે છે.

મેમરી ટ્રીક: “હકારાત્મક આનંદ ઉમેરે, નકારાત્મક દુખ દૂર કરે”


પ્રશ્ન 2(ક) [7 ગુણ]
#

Supervised learning વિશે વિગતવાર સમજાવો.

જવાબ:

વ્યાખ્યા: શીખવાની પદ્ધતિ જે labeled training data માંથી શીખીને નવા ડેટા પર આગાહીઓ કરે છે.

પ્રક્રિયા ટેબલ:

પગલુંવર્ણનઉદાહરણ
TrainingInput-output જોડીઓથી algorithm શીખે છેEmail → Spam/Not Spam
Validationઅદ્રશ્ય ડેટા પર model ચકાસવુંaccuracy તપાસવી
Predictionનવા inputs માટે outputs બનાવવુંનવા emails ને classify કરવું

પ્રકારો:

  • Classification: કેટેગરીઓની આગાહી (spam detection)
  • Regression: સતત મૂલ્યોની આગાહી (ઘરના ભાવ)

આકૃતિ:

graph LR
    A[Training Data<br/>X,Y જોડીઓ] --> B[Learning Algorithm] --> C[Model]
    D[નવો Input X] --> C --> E[આગાહી Y]

મેમરી ટ્રીક: “દેખરેખ = શિક્ષક સાચા જવાબો આપે છે”


પ્રશ્ન 2(અ) OR [3 ગુણ]
#

Human learning માં સામેલ key components ની યાદી આપો.

જવાબ:

ઘટકકાર્ય
Observationપર્યાવરણમાંથી માહિતી એકત્રિત કરવી
Memoryઅનુભવો સંગ્રહિત અને પુનઃપ્રાપ્ત કરવા
Practiceકુશળતા સુધારવા માટે પુનરાવર્તન
Feedbackપ્રદર્શન વિશેની માહિતી

મેમરી ટ્રીક: “નિરીક્ષણ, યાદદાશ્ત, પ્રેક્ટિસ, પ્રતિસાદ”


પ્રશ્ન 2(બ) OR [4 ગુણ]
#

Well-posed learning problem વિશે વિગતવાર સમજાવો.

જવાબ:

વ્યાખ્યા: સ્પષ્ટ રીતે વ્યાખ્યાયિત કાર્ય, પ્રદર્શન માપદંડ અને અનુભવ સાથેની શીખવાની સમસ્યા.

ઘટકો ટેબલ:

ઘટકવર્ણનઉદાહરણ
Task (T)સિસ્ટમે શું શીખવું જોઈએશતરંજ રમવું
Performance (P)સફળતા કેવી રીતે માપવીજીતવાની ટકાવારી
Experience (E)Training data અથવા પ્રેક્ટિસઅગાઉના રમતો

સૂત્ર: શીખવું = E દ્વારા T પર P સુધારવું

માપદંડો: સમસ્યા માપી શકાય તેવી, હાંસલ કરી શકાય તેવી અને ઉપલબ્ધ ડેટા હોવું જોઈએ.

મેમરી ટ્રીક: “કાર્ય પ્રદર્શન અનુભવ = શીખવા માટે TPE”


પ્રશ્ન 2(ક) OR [7 ગુણ]
#

Unsupervised learning વિશે વિગતવાર સમજાવો.

જવાબ:

વ્યાખ્યા: Labeled ઉદાહરણો અથવા target outputs વિના ડેટામાંથી પેટર્ન શીખવું.

પ્રકારો ટેબલ:

પ્રકારઉદ્દેશ્યAlgorithmઉદાહરણ
Clusteringસમાન ડેટાને જૂથમાં રાખવુંK-meansગ્રાહક વિભાજન
Associationસંબંધો શોધવાAprioriબજાર બાસ્કેટ વિશ્લેષણ
Dimensionality Reductionલક્ષણો ઘટાડવાPCAડેટા દૃશ્યીકરણ

આકૃતિ:

graph TD
    A[Unlabeled Data] --> B[Unsupervised Algorithm]
    B --> C[Clustering]
    B --> D[Association Rules]
    B --> E[Dimensionality Reduction]
  • કોઈ શિક્ષક નથી: Algorithm સ્વતંત્ર રીતે છુપાયેલા patterns શોધે છે
  • શોધખોળ: ડેટામાં અજાણ્યા માળખાઓ શોધે છે

મેમરી ટ્રીક: “બિનદેખરેખ = કોઈ શિક્ષક નથી, જાતે patterns શોધો”


પ્રશ્ન 3(અ) [3 ગુણ]
#

SIGMOID function સમજાવો. ઉપરાંત, તેનો graph દોરો અને SIGMOID function નું ઉદાહરણ આપો.

જવાબ:

વ્યાખ્યા: Activation function જે કોઈપણ વાસ્તવિક સંખ્યાને 0 અને 1 વચ્ચેના મૂલ્યમાં map કરે છે.

સૂત્ર: σ(x) = 1/(1 + e^(-x))

Graph (ASCII):

100.-5505

ઉદાહરણ: x = 0 માટે, σ(0) = 1/(1 + e^0) = 1/2 = 0.5

ગુણધર્મો: S-આકારનો વળાંક, સરળ gradient, binary classification માં વપરાય છે

મેમરી ટ્રીક: “Sigmoid મૂલ્યોને 0 અને 1 વચ્ચે દબાવે છે”


પ્રશ્ન 3(બ) [4 ગુણ]
#

નીચેના પદને વ્યાખ્યાયિત કરો: 1) Activation function. 2) Artificial neural network.

જવાબ:

પદવ્યાખ્યાઉદ્દેશ્ય
Activation Functionગાણિતિક function જે weighted inputs આધારે neuron output નક્કી કરે છેNeural networks માં non-linearity લાવે છે
Artificial Neural NetworkBiological neural networks થી પ્રેરિત computing system જેમાં interconnected nodes હોય છેPattern recognition અને machine learning

મુખ્ય લક્ષણો:

  • Non-linear processing જટિલ pattern learning સક્ષમ બનાવે છે
  • Layered architecture માહિતીને hierarchical રીતે process કરે છે

મેમરી ટ્રીક: “Activation કૃત્રિમ રીતે મગજના neurons ની નકલ કરે છે”


પ્રશ્ન 3(ક) [7 ગુણ]
#

Recurrent network ના architecture ને આકૃતિ સાથે વિગતવાર સમજાવો.

જવાબ:

વ્યાખ્યા: Neural network જેમાં connections loops બનાવે છે, જે માહિતીને સ્થાયી રાખવાની મંજૂરી આપે છે.

Architecture આકૃતિ:

graph LR
    A[Input x_t] --> B[Hidden State h_t]
    B --> C[Output y_t]
    B --> D[Hidden State h_t+1]
    E[Previous State h_t-1] --> B
    
    subgraph "Time Steps"
    F[t-1] --> G[t] --> H[t+1]
    end

ઘટકો ટેબલ:

ઘટકકાર્યસૂત્ર
Hidden Stateઅગાઉના inputs ની યાદદાશ્તh_t = f(W_h * h_t-1 + W_x * x_t)
Input Layerવર્તમાન time step inputx_t
Output Layerસમય t પર આગાહીy_t = W_y * h_t

ઉપયોગો: વાણી ઓળખ, ભાષા અનુવાદ, time series આગાહી

ફાયદો: ભૂતકાળની માહિતીની યાદદાશ્ત સાથે sequential data handle કરે છે

મેમરી ટ્રીક: “પુનરાવર્તિત = પાછલી અવસ્થાઓ યાદ રાખે છે”


પ્રશ્ન 3(અ) OR [3 ગુણ]
#

TANH function સમજાવો. ઉપરાંત, તેનો graph દોરો અને TANH function નું ઉદાહરણ આપો.

જવાબ:

વ્યાખ્યા: Hyperbolic tangent activation function જે મૂલ્યોને -1 અને 1 વચ્ચે map કરે છે.

સૂત્ર: tanh(x) = (e^x - e^(-x))/(e^x + e^(-x))

Graph (ASCII):

-101-303

ઉદાહરણ: x = 0 માટે, tanh(0) = (1-1)/(1+1) = 0

ગુણધર્મો: શૂન્ય-કેન્દ્રિત, S-આકારનું, sigmoid કરતાં મજબૂત gradients

મેમરી ટ્રીક: “TANH = બે-તરફી sigmoid (-1 થી +1)”


પ્રશ્ન 3(બ) OR [4 ગુણ]
#

નીચેના પદને વ્યાખ્યાયિત કરો: 1) Biological neural network. 2) Loss calculation.

જવાબ:

પદવ્યાખ્યામુખ્ય પાસાઓ
Biological Neural Networkજીવંત જીવોમાં interconnected neurons નું નેટવર્ક જે માહિતી process કરે છેDendrites, cell body, axon, synapses
Loss calculationઆગાહી કરેલા અને વાસ્તવિક outputs વચ્ચેના તફાવતનું ગાણિતિક માપBackpropagation દ્વારા શીખવાને માર્ગદર્શન આપે છે

જૈવિક માળખું: Neurons → Synapses → Neural Networks → મગજ Loss પ્રકારો: Mean Squared Error, Cross-entropy, Absolute Error

મેમરી ટ્રીક: “જીવવિજ્ઞાન AI ને પ્રેરણા આપે છે, Loss શીખવાની પ્રગતિ માપે છે”


પ્રશ્ન 3(ક) OR [7 ગુણ]
#

Multi-layer feed-forward network ના architecture ને આકૃતિ સાથે વિગતવાર વર્ણવો.

જવાબ:

વ્યાખ્યા: બહુવિધ layers સાથેનું neural network જ્યાં માહિતી input થી output તરફ આગળ વહે છે.

Architecture આકૃતિ:

graph LR
    subgraph "Input Layer"
    A1[x1] 
    A2[x2]
    A3[x3]
    end
    
    subgraph "Hidden Layer 1"
    B1[h1]
    B2[h2]
    B3[h3]
    end
    
    subgraph "Hidden Layer 2"
    C1[h4]
    C2[h5]
    end
    
    subgraph "Output Layer"
    D1[y1]
    D2[y2]
    end
    
    A1 --> B1
    A1 --> B2
    A2 --> B1
    A2 --> B3
    A3 --> B2
    A3 --> B3
    
    B1 --> C1
    B2 --> C1
    B2 --> C2
    B3 --> C2
    
    C1 --> D1
    C1 --> D2
    C2 --> D1
    C2 --> D2

Layer કાર્યો ટેબલ:

Layerકાર્યProcessing
Inputડેટા પ્રાપ્ત કરે છેકોઈ processing નથી, ફક્ત વિતરણ
HiddenFeature extractionWeighted sum + activation function
Outputઅંતિમ આગાહીClassification અથવા regression output

માહિતી પ્રવાહ: Input → Hidden Layer(s) → Output (એકદિશીય) શીખવું: Backpropagation error આધારે weights adjust કરે છે

મેમરી ટ્રીક: “બહુ-સ્તર = જટિલ શીખવા માટે બહુવિધ hidden layers”


પ્રશ્ન 4(અ) [3 ગુણ]
#

NLP ના ફાયદાઓની યાદી વિગતવાર આપો.

જવાબ:

ફાયદોવર્ણન
Automationમાનવી પ્રયાસ જોઈતા text processing કાર્યોને આપોઆપ કરે છે
Language Understandingબહુવિધ ભાષાઓ અને બોલીઓ અસરકારક રીતે process કરે છે
24/7 Availabilityમાનવી હસ્તક્ષેપ વિના સતત કામ કરે છે
Scalabilityમોટા પ્રમાણમાં text data કાર્યક્ષમ રીતે handle કરે છે

ઉપયોગો: Chatbots, અનુવાદ, sentiment analysis, document processing

મેમરી ટ્રીક: “NLP = ભાષા સમજણને 24/7 પાયે આપોઆપ કરે છે”


પ્રશ્ન 4(બ) [4 ગુણ]
#

Natural Language Generation વિગતવાર સમજાવો.

જવાબ:

વ્યાખ્યા: AI પ્રક્રિયા જે structured data ને કુદરતી માનવી ભાષાના text માં convert કરે છે.

પ્રક્રિયા ટેબલ:

પગલુંવર્ણનકાર્ય
Content Planningકઈ માહિતી સામેલ કરવી તે નક્કી કરવુંડેટા પસંદગી
Sentence Planningવાક્યો અને ફકરાઓની રચના કરવીટેક્સ્ટ વ્યવસ્થા
Surface Realizationવ્યાકરણ સાથે વાસ્તવિક ટેક્સ્ટ બનાવવુંઅંતિમ આઉટપુટ

ઉપયોગો: રિપોર્ટ જનરેશન, chatbots, આપોઆપ પત્રકારત્વ, વ્યક્તિગત સામગ્રી

ઉદાહરણ: વેચાણ ડેટા → “ઇલેક્ટ્રોનિક્સમાં મજબૂત પ્રદર્શનને કારણે આ ક્વાર્ટરમાં વેચાણ 15% વધ્યું.”

મેમરી ટ્રીક: “NLG = સંખ્યાઓને કથામાં ફેરવે છે”


પ્રશ્ન 4(ક) [7 ગુણ]
#

NLP માં રહેલી અસ્પષ્ટતા સમજાવો. ઉપરાંત, દરેક અસ્પષ્ટતાનું ઉદાહરણ આપો.

જવાબ:

અસ્પષ્ટતા પ્રકારો ટેબલ:

પ્રકારવર્ણનઉદાહરણઉકેલ
Lexicalશબ્દના અનેક અર્થો હોય છે“Bank” (નદી/નાણાકીય)સંદર્ભ વિશ્લેષણ
Syntacticવાક્ય રચના અસ્પષ્ટ હોય છે“મેં telescope સાથે માણસને જોયો”Parse trees
Semanticઅર્થ અસ્પષ્ટ હોય છે“રંગહીન લીલા વિચારો”Semantic rules
Pragmaticસંદર્ભ-આધારિત અર્થ“શું તમે મીઠું આપી શકો છો?” (વિનંતી/પ્રશ્ન)પરિસ્થિતિનો સંદર્ભ

આકૃતિ:

graph TD
    A[NLP અસ્પષ્ટતાઓ] --> B[Lexical<br/>શબ્દ સ્તર]
    A --> C[Syntactic<br/>વ્યાકરણ સ્તર]
    A --> D[Semantic<br/>અર્થ સ્તર]
    A --> E[Pragmatic<br/>સંદર્ભ સ્તર]

ઉકેલ વ્યૂહરચના: સંદર્ભ વિશ્લેષણ, આંકડાકીય મોડેલ્સ, knowledge bases

મેમરી ટ્રીક: “શાબ્દિક વ્યાકરણિક અર્થપૂર્ણ વ્યાવહારિક = SVAV અસ્પષ્ટતાઓ”


પ્રશ્ન 4(અ) OR [3 ગુણ]
#

NLP ના ગેરફાયદાઓની યાદી વિગતવાર આપો.

જવાબ:

ગેરફાયદોવર્ણન
Context Limitationsવ્યંગ, હાસ્ય, સાંસ્કૃતિક સંદર્ભો સાથે મુશ્કેલી
Language Complexityવાક્યપ્રયોગો, સ્લેંગ, પ્રાદેશિક બોલીઓ સાથે મુશ્કેલી
Data Requirementsમોટા પ્રમાણમાં training data જરૂરી
Computational Costનોંધપાત્ર processing power અને memory જરૂરી

પડકારો: અસ્પષ્ટતા, બહુભાષીય સપોર્ટ, real-time processing

મેમરી ટ્રીક: “NLP પડકારો = સંદર્ભ, ભાષા, ડેટા, ગણતરી”


પ્રશ્ન 4(બ) OR [4 ગુણ]
#

Natural Language Understanding વિગતવાર સમજાવો.

જવાબ:

વ્યાખ્યા: માનવી ભાષાના અર્થ અને હેતુને સમજવા અને અર્થઘટન કરવાની AI ક્ષમતા.

ઘટકો ટેબલ:

ઘટકકાર્યઉદાહરણ
Tokenizationટેક્સ્ટને શબ્દો/વાક્યાંશોમાં વિભાજીત કરવું“Hello world” → [“Hello”, “world”]
Parsingવ્યાકરણિક માળખાનું વિશ્લેષણકર્તા, ક્રિયા, કર્મ ઓળખવું
Semantic Analysisઅર્થ કાઢવોશબ્દો વચ્ચેના સંબંધો સમજવા
Intent Recognitionયુઝરનો હેતુ ઓળખવો“ફ્લાઇટ બુક કરો” → ટ્રાવેલ બુકિંગ intent

પ્રક્રિયા પ્રવાહ: Text Input → Tokenization → Parsing → Semantic Analysis → Intent Understanding

ઉપયોગો: Virtual assistants, chatbots, voice commands

મેમરી ટ્રીક: “NLU = કુદરતી રીતે ભાષા સમજે છે”


પ્રશ્ન 4(ક) OR [7 ગુણ]
#

Stemming અને Lemmatization વિગતવાર સમજાવો. ઉપરાંત દરેકના બે ઉદાહરણ આપો.

જવાબ:

વ્યાખ્યાઓ:

પ્રક્રિયાવર્ણનપદ્ધતિઆઉટપુટ
StemmingSuffixes દૂર કરીને શબ્દોને મૂળ સ્વરૂપમાં ઘટાડવુંRule-based કાપવુંWord stem
Lemmatizationશબ્દોને શબ્દકોશના આધાર સ્વરૂપમાં ઘટાડવુંDictionary lookupમાન્ય શબ્દ

Stemming ઉદાહરણો:

  1. “running”, “runs”, “ran” → “run”
  2. “fishing”, “fished”, “fisher” → “fish”

Lemmatization ઉદાહરણો:

  1. “better” → “good” (comparative to base)
  2. “children” → “child” (બહુવચનથી એકવચન)

તુલના ટેબલ:

પાસુંStemmingLemmatization
ઝડપવધુ ઝડપીધીમું
સચોટતાઓછીવધુ
આઉટપુટકદાચ માન્ય શબ્દ ન હોયહંમેશા માન્ય શબ્દ

મેમરી ટ્રીક: “Stemming = ઝડપ, Lemmatization = ભાષાની સચોટતા”


પ્રશ્ન 5(અ) [3 ગુણ]
#

વ્યાખ્યા આપો: 1) Word embeddings. 2) Machine Translation.

જવાબ:

પદવ્યાખ્યાઉદ્દેશ્ય
Word Embeddingsશબ્દોના ઘન વેક્ટર પ્રતિનિધિત્વ જે semantic સંબંધો capture કરે છેટેક્સ્ટને ML માટે સંખ્યાત્મક સ્વરૂપમાં convert કરવું
Machine Translationએક ભાષામાંથી બીજી ભાષામાં ટેક્સ્ટનું આપોઆપ રૂપાંતરણભાષાઓ વચ્ચે સંવાદ સક્ષમ બનાવવું

મુખ્ય લક્ષણો:

  • Word embeddings વેક્ટર સ્પેસમાં શબ્દ સંબંધો જાળવે છે
  • Machine translation ભાષાઓ વચ્ચે અર્થ જાળવે છે

મેમરી ટ્રીક: “શબ્દો વેક્ટર્સ બને છે, ભાષાઓ અનુવાદ બને છે”


પ્રશ્ન 5(બ) [4 ગુણ]
#

Word2Vec વિશે વિગતવાર સમજાવો.

જવાબ:

વ્યાખ્યા: Neural network તકનીક જે મોટા text corpus માંથી શબ્દ સંબંધો શીખીને word embeddings બનાવે છે.

Architecture પ્રકારો:

મોડેલવર્ણનઆગાહી
CBOW (Continuous Bag of Words)સંદર્ભમાંથી target શબ્દની આગાહી કરે છેસંદર્ભ → લક્ષ્ય
Skip-gramTarget શબ્દમાંથી સંદર્ભ શબ્દોની આગાહી કરે છેલક્ષ્ય → સંદર્ભ

પ્રક્રિયા:

  1. Training: Neural network શબ્દ સંબંધો શીખે છે
  2. Vector Creation: દરેક શબ્દને અનન્ય વેક્ટર પ્રતિનિધિત્વ મળે છે
  3. Similarity: સમાન શબ્દોના સમાન વેક્ટર્સ હોય છે

ઉદાહરણ: vector(“king”) - vector(“man”) + vector(“woman”) ≈ vector(“queen”)

મેમરી ટ્રીક: “Word2Vec = સંદર્ભ દ્વારા શબ્દોથી વેક્ટર્સ”


પ્રશ્ન 5(ક) [7 ગુણ]
#

ઉત્પાદનના ઉત્પાદકે ગ્રાહક પાસેથી feedback એકત્રિત કર્યો છે અને હવે તેના પર sentiment analysis કરવા ઈચ્છે છે. તેના માટે કયા પગલાઓ અનુસરવા જોઈએ? વિગતવાર સમજાવો.

જવાબ:

Sentiment Analysis Pipeline:

પગલુંવર્ણનTools/Methods
Data Collectionગ્રાહક feedback એકત્રિત કરવુંસર્વે, સમીક્ષાઓ, સોશિયલ મીડિયા
Data Preprocessingટેક્સ્ટ સાફ અને તૈયાર કરવુંNoise દૂર કરવું, tokenization
Feature Extractionટેક્સ્ટને સંખ્યાત્મક સ્વરૂપમાં બદલવુંTF-IDF, Word embeddings
Model TrainingSentiment classifier તાલીમ આપવીNaive Bayes, SVM, Neural networks
PredictionSentiment વર્ગીકરણ કરવુંહકારાત્મક/નકારાત્મક/તટસ્થ
Analysisપરિણામોનું અર્થઘટનInsights અને રિપોર્ટ્સ બનાવવા

અમલીકરણ પ્રવાહ:

graph LR
    A[ગ્રાહક Feedback] --> B[Text Preprocessing]
    B --> C[Feature Extraction]
    C --> D[Sentiment Model]
    D --> E[Classification]
    E --> F[Business Insights]

Preprocessing પગલાં:

  • વિશેષ અક્ષરો અને URLs દૂર કરવા
  • Lowercase માં convert કરવા સુસંગતતા માટે
  • Stop words દૂર કરવા (the, and, or)
  • Negations handle કરવા (not good → negative sentiment)

Model મૂલ્યાંકન: accuracy, precision, recall, F1-score જેવા metrics વાપરવા

વ્યાપારિક મૂલ્ય: ગ્રાહક સંતુષ્ટિ સમજવી, ઉત્પાદનો સુધારવા, સમસ્યાઓ ઓળખવી

મેમરી ટ્રીક: “એકત્રિત કરો, સાફ કરો, કાઢો, તાલીમ આપો, આગાહી કરો, વિશ્લેષણ કરો = ESTAVA”


પ્રશ્ન 5(અ) OR [3 ગુણ]
#

GloVe ના ફાયદાઓ NLP ના સંદર્ભમાં સમજાવો.

જવાબ:

ફાયદોવર્ણન
Global Contextસ્થાનિક સંદર્ભ જ નહીં પરંતુ સમગ્ર corpus આંકડા ધ્યાનમાં રાખે છે
Linear Relationshipsવેક્ટર અંકગણિત દ્વારા semantic સંબંધો capture કરે છે
Efficiencyમોટા datasets પર Word2Vec કરતાં ઝડપી training
Stabilityબહુવિધ training runs માં સુસંગત પરિણામો

મુખ્ય લાભો: Word analogy કાર્યોમાં સારું પ્રદર્શન, સ્થાનિક અને વૈશ્વિક બંને આંકડા capture કરે છે

મેમરી ટ્રીક: “GloVe = વૈશ્વિક વેક્ટર શ્રેષ્ઠતા”


પ્રશ્ન 5(બ) OR [4 ગુણ]
#

TFIDF અને BoW સાથેના પડકારો વિશે સમજાવો.

જવાબ:

પડકારો ટેબલ:

પદ્ધતિપડકારોઅસર
TF-IDF1. શબ્દ ક્રમ અવગણે છે
2. Sparse vectors
3. Semantic similarity નથી
મર્યાદિત સંદર્ભ સમજ
BoW1. Sequence માહિતી ગુમાવે છે
2. ઉચ્ચ dimensionality
3. શબ્દ સંબંધો નથી
નબળું semantic પ્રતિનિધિત્વ

સામાન્ય સમસ્યાઓ:

  • Vocabulary size: ખૂબ મોટા, sparse matrices બનાવે છે
  • Out-of-vocabulary: નવા શબ્દો handle કરી શકતું નથી
  • Semantic gap: “સારું” અને “ઉત્તમ” ને અલગ ગણે છે

ઉકેલ: Word embeddings (Word2Vec, GloVe) વાપરો dense, semantic રજૂઆત માટે

મેમરી ટ્રીક: “TF-IDF અને BoW = Sparse, કોઈ ક્રમ નથી, કોઈ semantics નથી”


પ્રશ્ન 5(ક) OR [7 ગુણ]
#

E-mail સેવા પ્રદાતા SPAM detection તકનીક લાગુ કરવા ઈચ્છે છે. SPAM E-mail શોધવા માટે કયા પગલાઓ અનુસરવા જોઈએ? વિગતવાર સમજાવો.

જવાબ:

SPAM Detection Pipeline:

પગલુંવર્ણનતકનીકો
Data CollectionLabeled spam/ham emails એકત્રિત કરવાEmail datasets, યુઝર રિપોર્ટ્સ
Feature Engineeringસંબંધિત features કાઢવાSubject વિશ્લેષણ, sender patterns
Text PreprocessingEmail content સાફ કરવુંHTML દૂર કરવું, text normalize કરવું
Feature Extractionસંખ્યાત્મક સ્વરૂપમાં convert કરવુંTF-IDF, N-grams, metadata
Model TrainingClassifier તાલીમ આપવીNaive Bayes, SVM, Random Forest
ValidationModel પ્રદર્શન ચકાસવુંCross-validation, test set
DeploymentEmail system સાથે એકીકરણReal-time classification

Feature પ્રકારો:

Feature Categoryઉદાહરણોઉદ્દેશ્ય
Content-basedKeywords, phrases, HTML tagsEmail body વિશ્લેષણ
Header-basedSender, subject, timestampsMetadata તપાસવું
BehavioralSending patterns, frequencyશંકાશીલ વર્તન ઓળખવું

અમલીકરણ આકૃતિ:

graph TD
    A[આવતો Email] --> B[Feature Extraction]
    B --> C{SPAM Classifier}
    C -->|Spam| D[Spam Folder]
    C -->|Ham| E[Inbox]
    F[યુઝર Feedback] --> G[Model Update]

Model મૂલ્યાંકન Metrics:

  • Precision: False positives ટાળવા (કાયદેસર emails spam તરીકે mark ન થાય)
  • Recall: વાસ્તવિક spam emails પકડવા
  • F1-Score: Precision અને recall વચ્ચે સંતુલન

સતત શીખવું: નવા spam patterns અને યુઝર feedback સાથે model update કરવું

મેમરી ટ્રીક: “એકત્રિત કરો, ઇજનેર કરો, પ્રોસેસ કરો, કાઢો, તાલીમ આપો, માન્ય કરો, જમાવો = EIPKTMJ”

સંબંધિત

Foundation of AI and ML (4351601) - Summer 2024 Solution (Gujarati)
Study-Material Solutions Ai-Ml 4351601 2024 Summer Gujarati
Cloud and Data Center Technologies (4361602) - Winter 2024 Solution (Gujarati)
Study-Material Solutions Cloud-Computing 4361602 2024 Winter Gujarati
Embedded System & Microcontroller Application (4351102) - Winter 2024 Solution - Gujarati
Study-Material Solutions Embedded-System 4351102 2024 Winter Gujarati
Communication Engineering (1333201) - Winter 2024 Solution (Gujarati)
23 મિનિટ
Study-Material Solutions Communication-Engineering 1333201 2024 Winter Gujarati
માઇક્રોપ્રોસેસર અને માઇક્રોકન્ટ્રોલર (4341101) - વિન્ટર 2024 સોલ્યુશન
23 મિનિટ
Study-Material Solutions Microprocessor 4341101 2024 Winter Gujarati
Foundation of AI and ML (4351601) - Winter 2023 Solution (Gujarati)
Study-Material Solutions Ai-Ml 4351601 2023 Winter Gujarati