મુખ્ય સામગ્રી પર જાઓ
  1. સંસાધનો/
  2. અભ્યાસ સામગ્રી/
  3. ઇન્ફોર્મેશન ટેકનોલોજી એન્જિનિયરિંગ/
  4. આઈટી સેમેસ્ટર 5/
  5. આર્ટિફિશિયલ ઇન્ટેલિજન્સ અને મશીન લર્નિંગ (4351601)/

Foundation of AI and ML (4351601) - Winter 2023 Solution (Gujarati)

·
Study-Material Solutions Ai-Ml 4351601 2023 Winter Gujarati
મિલવ ડબગર
લેખક
મિલવ ડબગર
ઇલેક્ટ્રિકલ અને ઇલેક્ટ્રોનિક મેન્યુફેક્ચરિંગ ઉદ્યોગમાં અનુભવી લેક્ચરર. એમ્બેડેડ સિસ્ટમ્સ, ઈમેજ પ્રોસેસિંગ, ડેટા સાયન્સ, મેટલેબ, પાયથન, STM32માં કુશળ. એલ.ડી. કોલેજ ઓફ એન્જિનિયરિંગ - અમદાવાદથી કમ્યુનિકેશન સિસ્ટમ્સ એન્જિનિયરિંગમાં માસ્ટર્સ ડિગ્રી ધરાવતા મજબૂત શિક્ષણ વ્યાવસાયિક.
અનુક્રમણિકા

પ્રશ્ન 1(અ) [3 ગુણ]
#

નીચેની terms ની વ્યાખ્યા આપો: (1) Artificial Intelligence (2) Expert System.

જવાબ:

Termવ્યાખ્યા
Artificial IntelligenceAI એ computer science ની એક શાખા છે જે એવા machines બનાવે છે જે સામાન્ય રીતે માનવ બુદ્ધિની જરૂર પડતા કાર્યો કરી શકે છે, જેમ કે learning, reasoning અને problem-solving.
Expert SystemExpert system એ એક computer program છે જે knowledge અને inference rules નો ઉપયોગ કરીને એવી problems solve કરે છે જેમાં સામાન્ય રીતે ચોક્કસ ક્ષેત્રમાં માનવ expertise ની જરૂર પડે છે.
  • AI ની વિશેષતાઓ: Learning, reasoning, perception
  • Expert system ના ભાગો: Knowledge base, inference engine

મેમરી ટ્રીક: “AI શીખે છે, Expert સલાહ આપે છે”

પ્રશ્ન 1(બ) [4 ગુણ]
#

Biological Neural Network અને Artificial Neural Network ની સરખામણી કરો.

જવાબ:

પાસુંBiological Neural NetworkArtificial Neural Network
ProcessingParallel processingSequential/parallel processing
ઝડપધીમી (milliseconds)ઝડપી (nanoseconds)
શીખવુંસતત શીખવુંBatch/online learning
Storageવિતરિત storageકેન્દ્રિય storage
  • Biological: જટિલ, fault-tolerant, સ્વ-સુધારણા કરે છે
  • Artificial: સરળ, ચોક્કસ, programmable

મેમરી ટ્રીક: “Bio જટિલ છે, AI સરળ છે”

પ્રશ્ન 1(ક) [7 ગુણ]
#

AI ના પ્રકારો તેની applications સાથે સમજાવો.

જવાબ:

AI નો પ્રકારવર્ણનApplications
Narrow AIચોક્કસ કાર્યો માટે design કરેલ AIVoice assistants, recommendation systems
General AIમાનવ સ્તરની intelligence વાળી AIહજુ સુધી પ્રાપ્ત નથી
Super AIમાનવ intelligence કરતાં વધારે AIસૈદ્ધાંતિક વિભાવના
graph TD
    A[AI ના પ્રકારો] --> B[Narrow AI]
    A --> C[General AI]
    A --> D[Super AI]
    B --> E[Siri, Alexa]
    B --> F[Netflix Recommendations]
    C --> G[માનવ સ્તરના કાર્યો]
    D --> H[માનવ Intelligence કરતાં વધારે]
  • હાલનું focus: Narrow AI આજના applications પર પ્રભુત્વ ધરાવે છે
  • ભવિષ્યનું લક્ષ્ય: General AI ને સુરક્ષિત રીતે પ્રાપ્ત કરવું

મેમરી ટ્રીક: “હવે Narrow, લક્ષ્ય General, Super ડરામણી”

પ્રશ્ન 1(ક) અથવા [7 ગુણ]
#

AI ethics અને limitations સમજાવો.

જવાબ:

Ethics નું પાસુંવર્ણન
Privacyવ્યક્તિગત data અને user information ની સુરક્ષા
Biasવિવિધ જૂથોમાં નિષ્પક્ષતા સુનિશ્ચિત કરવી
TransparencyAI નિર્ણયોને સમજાવી શકાય તેવા બનાવવા
AccountabilityAI actions માટે જવાબદારી નક્કી કરવી

મર્યાદાઓ:

  • Data dependency: મોટા, ગુણવત્તાવાળા datasets ની જરૂર
  • Computational power: નોંધપાત્ર processing resources ની જરૂર
  • Creativity નો અભાવ: ખરેખર મૌલિક concepts બનાવી શકતી નથી

મેમરી ટ્રીક: “Privacy, Bias, Transparency, Accountability”

પ્રશ્ન 2(અ) [3 ગુણ]
#

નીચેની terms ની વ્યાખ્યા આપો: (1) Well posed Learning Problem (2) Machine Learning.

જવાબ:

Termવ્યાખ્યા
Well posed Learning Problemએક learning problem જેમાં સ્પષ્ટ રીતે વ્યાખ્યાયિત task (T), performance measure (P), અને experience (E) હોય જ્યાં experience સાથે performance સુધરે છે.
Machine LearningAI નો એક ભાગ જે computers ને experience થી આપોઆપ શીખવા અને સુધારવા માટે સક્ષમ બનાવે છે, સ્પષ્ટ રીતે program કર્યા વગર.
  • Well posed formula: T + P + E = Learning
  • ML નો ફાયદો: Data થી આપોઆપ સુધારો

મેમરી ટ્રીક: “Task, Performance, Experience”

પ્રશ્ન 2(બ) [4 ગુણ]
#

Reinforcement Learning તેમાં ઉપયોગ થતાં terms સાથે સમજાવો.

જવાબ:

Termવર્ણન
Agentશીખનાર અથવા નિર્ણય લેનાર
Environmentજે દુનિયામાં agent કામ કરે છે
Actionદરેક state માં agent શું કરી શકે છે
StateAgent ની હાલની સ્થિતિ
RewardEnvironment તરફથી feedback
graph LR
    A[Agent] --> B[Action]
    B --> C[Environment]
    C --> D[State]
    C --> E[Reward]
    D --> A
    E --> A
  • શીખવાની પ્રક્રિયા: Trial and error approach
  • લક્ષ્ય: કુલ reward વધારવું

મેમરી ટ્રીક: “Agent કરે છે, Environment State અને Reward આપે છે”

પ્રશ્ન 2(ક) [7 ગુણ]
#

Supervised, Unsupervised અને Reinforcement Learning ની સરખામણી કરો.

જવાબ:

પાસુંSupervisedUnsupervisedReinforcement
DataLabeled dataUnlabeled dataInteractive data
લક્ષ્યOutput predict કરવુંPatterns શોધવાReward વધારવું
Feedbackતુરંતકોઈ નહીંવિલંબિત
ઉદાહરણોClassificationClusteringGame playing
  • Supervised: શિક્ષક-માર્ગદર્શિત learning
  • Unsupervised: સ્વ-શોધ learning
  • Reinforcement: Trial-and-error learning

મેમરી ટ્રીક: “Supervised પાસે શિક્ષક, Unsupervised શોધે છે, Reinforcement પ્રયત્ન કરે છે”

પ્રશ્ન 2(અ) અથવા [3 ગુણ]
#

Reinforcement Learning ના key features લખો.

જવાબ:

Featureવર્ણન
Trial and Errorપ્રયોગ દ્વારા શીખવું
Delayed RewardActions પછી feedback મળે છે
Sequential DecisionActions ભવિષ્યના states ને અસર કરે છે
  • કોઈ supervisor નથી: Agent સ્વતંત્ર રીતે શીખે છે
  • Exploration vs Exploitation: નવા actions અજમાવવા અને જાણીતા સારા actions વાપરવા વચ્ચે સંતુલન

મેમરી ટ્રીક: “પ્રયત્ન, વિલંબ, ક્રમ”

પ્રશ્ન 2(બ) અથવા [4 ગુણ]
#

Reinforcement Learning ના પ્રકારો સમજાવો.

જવાબ:

પ્રકારવર્ણન
Positive RLવર્તણૂક વધારવા માટે positive stimulus ઉમેરવું
Negative RLવર્તણૂક વધારવા માટે negative stimulus દૂર કરવું

Learning આધારિત:

  • Model-based: Agent environment model શીખે છે
  • Model-free: Agent સીધો experience થી શીખે છે

મેમરી ટ્રીક: “Positive ઉમેરે, Negative દૂર કરે”

પ્રશ્ન 2(ક) અથવા [7 ગુણ]
#

Reinforcement Learning implement કરવા માટેના approaches સમજાવો.

જવાબ:

Approachવર્ણનઉદાહરણ
Value-basedStates/actions ના value શીખવાQ-Learning
Policy-basedPolicy સીધી શીખવીPolicy Gradient
Model-basedEnvironment model શીખવુંDynamic Programming
graph TD
    A[RL Approaches] --> B[Value-based]
    A --> C[Policy-based]
    A --> D[Model-based]
    B --> E[Q-Learning]
    C --> F[Policy Gradient]
    D --> G[Dynamic Programming]
  • Value-based: Value functions estimate કરે છે
  • Policy-based: Policy parameters optimize કરે છે
  • Model-based: Environment model વાપરે છે

મેમરી ટ્રીક: “Value, Policy, Model”

પ્રશ્ન 3(અ) [3 ગુણ]
#

Activation functions ReLU અને sigmoid વર્ણવો.

જવાબ:

FunctionFormulaRange
ReLUf(x) = max(0, x)[0, ∞)
Sigmoidf(x) = 1/(1 + e^(-x))(0, 1)
  • ReLU નો ફાયદો: Vanishing gradient problem નથી
  • Sigmoid નો ફાયદો: Smooth gradient, probabilistic output

મેમરી ટ્રીક: “ReLU સુધારે છે, Sigmoid દબાવે છે”

પ્રશ્ન 3(બ) [4 ગુણ]
#

Multi-layer feed forward ANN સમજાવો.

જવાબ:

Componentવર્ણન
Input LayerInput data receive કરે છે
Hidden LayersInformation process કરે છે (multiple layers)
Output LayerFinal result બનાવે છે
Connectionsફક્ત forward direction માં
  • Information flow: Input થી output સુધી એક દિશામાં
  • કોઈ cycles નથી: કોઈ feedback connections નથી

મેમરી ટ્રીક: “Input → Hidden → Output (ફક્ત આગળ)”

પ્રશ્ન 3(ક) [7 ગુણ]
#

ANN નું structure દોરો અને તેના દરેક components ની functionality સમજાવો.

જવાબ:

graph LR
    A[Input Layer] --> B[Hidden Layer 1]
    B --> C[Hidden Layer 2]
    C --> D[Output Layer]
    
    subgraph "Components"
        E[Neurons]
        F[Weights]
        G[Bias]
        H[Activation Function]
    end
ComponentFunctionality
NeuronsProcessing units જે inputs receive કરે છે અને outputs બનાવે છે
WeightsNeurons વચ્ચેની connection strengths
BiasActivation function ને shift કરવા માટે વધારાનું parameter
Activation FunctionNetwork માં non-linearity લાવે છે
  • Input layer: Input data receive કરે છે અને વિતરિત કરે છે
  • Hidden layers: Features અને patterns extract કરે છે
  • Output layer: Final classification અથવા prediction બનાવે છે
  • Connections: Neurons વચ્ચેની weighted links

મેમરી ટ્રીક: “Neurons સાથે Weights, Bias, અને Activation”

પ્રશ્ન 3(અ) અથવા [3 ગુણ]
#

Backpropagation પર ટૂંક નોંધ લખો.

જવાબ:

પાસુંવર્ણન
હેતુNeural networks માટે training algorithm
પદ્ધતિChain rule સાથે gradient descent
દિશાપાછળની તરફ error propagation
  • પ્રક્રિયા: Network દ્વારા પાછળની તરફ error gradients calculate કરવા
  • Update: Error ઘટાડવા માટે weights adjust કરવા

મેમરી ટ્રીક: “પાછળની તરફ Error Propagation”

પ્રશ્ન 3(બ) અથવા [4 ગુણ]
#

Single-layer feed forward network સમજાવો.

જવાબ:

Featureવર્ણન
StructureInput layer સીધી output layer સાથે connected
Layersફક્ત input અને output layers
મર્યાદાઓફક્ત linearly separable problems solve કરી શકે
ઉદાહરણPerceptron
  • ક્ષમતા: Linear decision boundaries સુધી મર્યાદિત
  • Applications: સરળ classification tasks

મેમરી ટ્રીક: “Single Layer, Linear મર્યાદાઓ”

પ્રશ્ન 3(ક) અથવા [7 ગુણ]
#

Recurrent neural network નું architecture દોરો અને સમજાવો.

જવાબ:

graph LR
    A[Input] --> B[Hidden State]
    B --> C[Output]
    B --> B[Self-loop]
    D[Previous State] --> B
ComponentFunction
Hidden Stateપાછલા inputs ની memory રાખે છે
Recurrent ConnectionHidden state થી તે જ તરફ feedback
Sequence ProcessingSequential data handle કરે છે
  • Memory: પાછલા time steps ની information રાખે છે
  • Applications: Language modeling, speech recognition
  • ફાયદો: Variable-length sequences process કરી શકે છે

મેમરી ટ્રીક: “Recurrent યાદ રાખે છે, પાછળ Loop કરે છે”

પ્રશ્ન 4(અ) [3 ગુણ]
#

NLP ની વ્યાખ્યા આપો અને તેના advantages લખો.

જવાબ:

Termવ્યાખ્યા
NLPNatural Language Processing - computers ને માનવ ભાષા સમજવા, interpret કરવા અને generate કરવા માટે સક્ષમ બનાવે છે

Advantages:

  • Human-computer interaction: કુદરતી communication
  • Automation: આપોઆપ text processing અને analysis
  • Accessibility: વિકલાંગ વપરાશકર્તાઓ માટે voice interfaces

મેમરી ટ્રીક: “કુદરતી ભાષા, કુદરતી Interaction”

પ્રશ્ન 4(બ) [4 ગુણ]
#

NLU અને NLG ની સરખામણી કરો.

જવાબ:

પાસુંNLU (Understanding)NLG (Generation)
હેતુમાનવ ભાષા interpret કરવીમાનવ ભાષા generate કરવી
InputText/SpeechStructured data
OutputStructured dataText/Speech
ઉદાહરણોSentiment analysisText summarization
  • NLU: Unstructured text ને structured data માં convert કરે છે
  • NLG: Structured data ને natural text માં convert કરે છે

મેમરી ટ્રીક: “NLU સમજે છે, NLG બનાવે છે”

પ્રશ્ન 4(ક) [7 ગુણ]
#

Word tokenization અને frequency distribution of words યોગ્ય ઉદાહરણ સાથે સમજાવો.

જવાબ:

પ્રક્રિયાવર્ણનઉદાહરણ
TokenizationText ને individual words/tokens માં તોડવું“Hello world” → [“Hello”, “world”]
Frequency Distributionદરેક token ની occurrence count કરવી{“Hello”: 1, “world”: 1}

ઉદાહરણ:

Text: "The cat sat on the mat"
Tokens: ["The", "cat", "sat", "on", "the", "mat"]
Frequency: {"The": 1, "cat": 1, "sat": 1, "on": 1, "the": 1, "mat": 1}
  • Case sensitivity: “The” અને “the” અલગ અલગ count થાય છે
  • Applications: Text analysis, search engines
  • Preprocessing: NLP tasks માટે આવશ્યક step

મેમરી ટ્રીક: “Tokenize પછી Count”

પ્રશ્ન 4(અ) અથવા [3 ગુણ]
#

NLP ના disadvantages ની યાદી આપો.

જવાબ:

Disadvantageવર્ણન
AmbiguityWords/sentences ના multiple meanings
Context dependencyContext સાથે meaning બદલાય છે
Language complexityGrammar rules અને exceptions
  • સાંસ્કૃતિક variations: અલગ ભાષાઓ, dialects
  • Computational cost: Resource-intensive processing

મેમરી ટ્રીક: “અસ્પષ્ટ, Contextual, જટિલ”

પ્રશ્ન 4(બ) અથવા [4 ગુણ]
#

NLP માં ambiguities ના પ્રકારો સમજાવો.

જવાબ:

પ્રકારવર્ણનઉદાહરણ
LexicalWord ના multiple meanings“Bank” (financial/river)
SyntacticMultiple parse trees possible“I saw a man with a telescope”
SemanticMultiple interpretations“Flying planes can be dangerous”
  • Resolution: Context analysis, statistical models
  • Challenge: NLP systems માં મુખ્ય અવરોધ

મેમરી ટ્રીક: “Lexical words, Syntactic structure, Semantic meaning”

પ્રશ્ન 4(ક) અથવા [7 ગુણ]
#

Stemming words અને parts of speech(POS) tagging યોગ્ય ઉદાહરણ સાથે સમજાવો.

જવાબ:

પ્રક્રિયાવર્ણનઉદાહરણ
StemmingWords ને root/stem form માં ઘટાડવા“running” → “run”, “flies” → “fli”
POS TaggingGrammatical categories assign કરવા“The/DT cat/NN runs/VB fast/RB”

Stemming ઉદાહરણ:

Original: ["running", "runs", "runner"]
Stemmed: ["run", "run", "runner"]

POS Tagging ઉદાહરણ:

Sentence: "The quick brown fox jumps"
Tagged: "The/DT quick/JJ brown/JJ fox/NN jumps/VB"
  • Stemming નો હેતુ: Vocabulary size ઘટાડવું, સંબંધિત words ને group કરવા
  • POS નો હેતુ: Grammatical structure સમજવું
  • Applications: Information retrieval, grammar checking

મેમરી ટ્રીક: “Root સુધી Stem, Grammar પ્રમાણે Tag”

પ્રશ્ન 5(અ) [3 ગુણ]
#

Word embedding વ્યાખ્યા આપો અને word embedding ની various techniques ની યાદી આપો.

જવાબ:

Termવ્યાખ્યા
Word EmbeddingWords ના dense vector representations જે semantic relationships capture કરે છે

Techniques:

  • TF-IDF: Term Frequency-Inverse Document Frequency
  • Bag of Words (BoW): સરળ word occurrence counting
  • Word2Vec: Neural network-based embeddings

મેમરી ટ્રીક: “TF-IDF counts, BoW bags, Word2Vec vectorizes”

પ્રશ્ન 5(બ) [4 ગુણ]
#

TF-IDF and BoW માટે Challenges સમજાવો.

જવાબ:

પદ્ધતિChallenges
TF-IDFSparse vectors, કોઈ semantic similarity નથી, high dimensionality
BoWOrder ignore થાય છે, context ખોવાય છે, sparse representation

સામાન્ય સમસ્યાઓ:

  • Sparsity: મોટાભાગના vector elements zero છે
  • કોઈ semantics નથી: સમાન words ના અલગ vectors
  • High dimensions: Memory અને computation intensive

મેમરી ટ્રીક: “Sparse, કોઈ Semantics નથી, High Dimensions”

પ્રશ્ન 5(ક) [7 ગુણ]
#

NLP ની ઉપયોગીતાઓ યોગ્ય ઉદાહરણ સાથે સમજાવો.

જવાબ:

Applicationવર્ણનઉદાહરણ
Machine Translationભાષાઓ વચ્ચે translate કરવુંGoogle Translate
Sentiment AnalysisEmotional tone નક્કી કરવુંProduct review analysis
Question AnsweringText માંથી પ્રશ્નોના જવાબ આપવાChatbots, virtual assistants
Spam Detectionઅનિચ્છિત emails identify કરવાEmail filters
Spelling CorrectionSpelling errors ઠીક કરવાText editors માં auto-correct
graph TD
    A[NLP Applications] --> B[Machine Translation]
    A --> C[Sentiment Analysis]
    A --> D[Question Answering]
    A --> E[Spam Detection]
    A --> F[Spelling Correction]
  • Real-world impact: Human-computer interaction સુધારે છે
  • Business value: Text processing tasks automate કરે છે
  • વધતું ક્ષેત્ર: નવા applications સતત આવતા રહે છે

મેમરી ટ્રીક: “Translate, Sentiment, Question, Spam, Spell”

પ્રશ્ન 5(અ) અથવા [3 ગુણ]
#

Glove(Global Vector for word representation) ને વર્ણવો.

જવાબ:

પાસુંવર્ણન
હેતુGlobal corpus statistics વાપરીને word vectors બનાવવા
પદ્ધતિGlobal matrix factorization અને local context combine કરે છે
ફાયદોGlobal અને local બંને statistical information capture કરે છે
  • Global statistics: Word co-occurrence information વાપરે છે
  • Pre-trained: સામાન્ય ઉપયોગ માટે trained vectors ઉપલબ્ધ છે

મેમરી ટ્રીક: “Global Vectors, Local Context”

પ્રશ્ન 5(બ) અથવા [4 ગુણ]
#

Inverse Document Frequency (IDF) સમજાવો.

જવાબ:

ComponentFormulaહેતુ
IDFlog(N/df)Documents માં word importance measure કરવું
NTotal documentsCorpus size
dfDocument frequencyTerm containing documents
  • High IDF: દુર્લભ words (વધુ informative)
  • Low IDF: સામાન્ય words (ઓછા informative)
  • Application: TF-IDF weighting scheme નો ભાગ

મેમરી ટ્રીક: “Inverse Document, દુર્લભ મહત્વપૂર્ણ છે”

પ્રશ્ન 5(ક) અથવા [7 ગુણ]
#

Document માટે TF(Term Frequency) ગણવાનું યોગ્ય ઉદાહરણ સાથે સમજાવો.

જવાબ:

પદ્ધતિFormulaવર્ણન
Raw TFf(t,d)Document માં term ની સરળ count
Normalized TFf(t,d)/max(f(w,d))Maximum frequency દ્વારા normalized
Log TF1 + log(f(t,d))Logarithmic scaling

ઉદાહરણ Document: “The cat sat on the mat. The mat was soft.”

TermCountRaw TFNormalized TFLog TF
“the”331.01.48
“cat”110.331.0
“mat”220.671.30

ગણતરીના પગલાં:

  1. દરેક term ની occurrence count કરો
  2. પસંદ કરેલું TF formula લાગુ કરો
  3. TF-IDF calculation માં વાપરો
  • Raw TF: સીધી counting, સરળ પરંતુ મર્યાદિત
  • Normalized TF: Document length ના લીધે bias ઘટાડે છે
  • Log TF: Frequency differences ને સમાન કરે છે

મેમરી ટ્રીક: “Count, Normalize, Log”

સંબંધિત

ઇલેક્ટ્રોનિક સર્કિટ્સ એન્ડ એપ્લિકેશન્સ (4321103) - વિન્ટર 2023 સોલ્યુશન
16 મિનિટ
Study-Material Solutions Electronics 4321103 2023 Winter
Embedded System & Microcontroller Application (4351102) - Winter 2023 Solution (Gujarati)
Study-Material Solutions Embedded-System 4351102 2023 Winter Gujarati
માઇક્રોપ્રોસેસર અને માઇક્રોકન્ટ્રોલર (4341101) - સમર 2023 સોલ્યુશન
23 મિનિટ
Study-Material Solutions Microprocessor 4341101 2023 Summer Gujarati
ફંડામેંટલ્સ ઓફ ઇલેક્ટ્રોનિક્સ (4311102) - વિન્ટર 2023 સોલ્યુશન
20 મિનિટ
Study-Material Solutions Electronics 4311102 2023 Winter
ડિજિટલ ઇલેક્ટ્રોનિક્સ (4321102) - શિયાળો 2023 સોલ્યુશન
15 મિનિટ
Study-Material Solutions Digital-Electronics 4321102 2023 Winter
લીનીયર ઇન્ટીગ્રેટેડ સર્કિટ (4341105) - ગ્રીષ્મ 2023 સોલ્યુશન
19 મિનિટ
Study-Material Solutions Linear-Integrated-Circuit 4341105 2023 Summer