AI වලට ගණිතය: Linear Algebra, Calculus, Probability, Statistics | Sinhala Guide

AI වලට ගණිතය: Linear Algebra, Calculus, Probability, Statistics | Sinhala Guide

ආයුබෝවන් යාළුවනේ!

අද අපි කතා කරන්න යන්නේ Artificial Intelligence (AI) සහ Machine Learning (ML) කියන මේ ලෝකේ ඉතාම වැදගත් සහ ජනප්‍රිය ක්ෂේත්‍ර දෙකට අත්‍යවශ්‍යම වෙන දෙයක් ගැන – ඒ තමයි ගණිතය!

බොහෝ වෙලාවට අපිට හිතෙන්නේ AI කියන්නේ සුපිරි කොම්පියුටර්ස් සහ සංකීර්ණ කෝඩ් වලින් හැදුණු දෙයක් කියලා. ඒක ඇත්ත. හැබැයි, ඒ හැමදෙයකටම යටින් තියෙන්නේ ප්‍රබල ගණිතමය සිද්ධාන්ත ගොඩක්. අපි මේ ගණිතය ගැන හරියට තේරුම් නොගත්තොත්, AI algorithms ක්‍රියාත්මක වෙන්නේ කොහොමද, ඒවා මොනවද කරන්නේ, සහ ඒවායේ ප්‍රතිඵල විශ්වාස කරන්න පුළුවන්ද කියන එක තේරුම් ගන්න හරිම අමාරුයි.

මේ tutorial එකෙන් අපි AI වලට අත්‍යවශ්‍ය මූලික ගණිත සංකල්ප කිහිපයක් සරලව සහ පැහැදිලිව සිංහලෙන් ඉගෙන ගන්නවා. බය වෙන්න එපා, අපි ඉස්කෝලේ කාලේ ගණිතය එපා වුන අයටත් තේරෙන විදියට, Practical උදාහරණ එක්ක කතා කරමු. මේවා හොඳට තේරුම් ගත්තොත් ඔයාලට AI models වල වැඩ කටයුතු තවත් හොඳින් අවබෝධ කරගන්න පුළුවන් වෙනවා.

අපි මේ tutorial එකේදී කතා කරන ප්‍රධාන මාතෘකා තමයි:

  • Linear Algebra Essentials (රේඛීය වීජ ගණිතයේ මූලිකාංග)
  • Calculus Basics (කැල්කියුලස් වල මූලිකාංග)
  • Probability Theory (සම්භාවිතා සිද්ධාන්තය)
  • Statistical Concepts (සංඛ්‍යාන සංකල්ප)

එහෙනම්, අපි පටන් ගමු නේද?

1. Linear Algebra Essentials (රේඛීය වීජ ගණිතයේ මූලිකාංග)

AI සහ Machine Learning වලදී, දත්ත (data) කියන්නේ රජා. මේ දත්ත effectively manage කරලා, manipulate කරලා, algorithms වලට දෙන්න ඕන. ඒකට අපිට Linear Algebra උදව් වෙනවා.

Linear Algebra කියන්නේ vectors සහ matrices වගේ දේවල් ගැන අධ්‍යයනය කරන ගණිත ශාඛාවක්. මේවා තමයි AI models වලට දත්ත නිරූපණය කරන්න (represent) සහ ක්‍රියාත්මක කරන්න (operate) යොදාගන්න ප්‍රධානම ගොඩනැගිලි කොටස්.

1.1 Vectors (වෙක්ටර්ස්)

සරලව කිව්වොත්, vector එකක් කියන්නේ අංක සමූහයක් (a list of numbers), ඒ වගේම ඒකට දිශාවක් සහ විශාලත්වයක් (direction and magnitude) තියෙනවා. අපි machine learning වලදී feature vector එකක් ගැන කතා කරනවා. මෙහිදී, vector එකක තියෙන එක අංකයක් (element) data point එකක එක feature එකක් වෙන්න පුළුවන්.

උදාහරණයක් විදියට, ගෙදරක මිල පුරෝකථනය කරන (predict) model එකක් හදනවා නම්, ගේක square_footage, number_of_bedrooms, age_of_house වගේ දේවල් features වෙන්න පුළුවන්. මේවා අපිට vector එකක් විදියට නිරූපණය කරන්න පුළුවන්:

x = [square_footage, number_of_bedrooms, age_of_house]

මේක ත්‍රිමාණ vector එකක් (3D vector) කියලා හිතන්න පුළුවන්. මෙවැනි vectors එකතු කරන්න, අඩු කරන්න, ඒ වගේම scalar (තනි අංකයක්) එකකින් ගුණ කරන්න පුළුවන්. AI වලදී බහුලවම පාවිච්චි වෙන vector operation එකක් තමයි Dot Product (අන්තර්ගුණිතය).

Dot Product (අන්තර්ගුණිතය)

දෙකක් vectors දෙකක් කොච්චර සමානද කියලා බලන්න මේකෙන් පුළුවන්. විශේෂයෙන්ම, Neural Networks වලදී weights සහ inputs අතර සම්බන්ධතාවය ගණනය කරන්න Dot Product එක පාවිච්චි කරනවා.

A = [a1, a2, a3] සහ B = [b1, b2, b3] වගේ vectors දෙකක් තියෙනවා නම්, ඒවායේ Dot Product එක මෙහෙමයි ගණනය කරන්නේ:

A · B = (a1 * b1) + (a2 * b2) + (a3 * b3)

ප්‍රායෝගික උදාහරණය:

අපි හිතමු අපිට Input Vector එකක් තියෙනවා X = [2, 3]. ඒ වගේම Weight Vector එකක් තියෙනවා W = [0.5, 0.2].

මේ දෙකේ Dot Product එක මෙහෙමයි:

X · W = (2 * 0.5) + (3 * 0.2)
      = 1.0 + 0.6
      = 1.6

මේ ප්‍රතිඵලය තමයි Neural Network එකක එක්තරා node එකක weighted sum එක වෙන්නේ.

1.2 Matrices (මේශ්‍රිකා)

Matrix එකක් කියන්නේ vectors කිහිපයක් එකතු කරලා හදපු, සෘජුකෝණාස්‍රාකාර අංක වගුවක් (rectangular array of numbers). අපේ dataset එකක් whole එකක් විදියට නිරූපණය කරන්න matrices හරිම ප්‍රයෝජනවත්.

උදාහරණයක් විදියට, අපේ ගෙවල් මිල පුරෝකථනය කරන model එකේ data points කිහිපයක් මෙහෙම matrix එකකින් නිරූපණය කරන්න පුළුවන්:

Data Matrix (M):
[[square_footage1, num_bedrooms1, age_house1],
 [square_footage2, num_bedrooms2, age_house2],
 [square_footage3, num_bedrooms3, age_house3]]

මෙහිදී, සෑම row (තීරු) එකක්ම එක් data point එකක් (එක් ගෙදරක්) නිරූපණය කරනවා, සහ සෑම column (පේළියක්) එකක්ම එක් feature එකක් නිරූපණය කරනවා.

Matrices වලත් vector operations වගේම එකතු කිරීම, අඩු කිරීම, ගුණ කිරීම වගේ දේවල් කරන්න පුළුවන්. Matrix Multiplication (මේශ්‍රිකා ගුණ කිරීම) AI වලදී අතිශයින්ම වැදගත්.

Matrix Multiplication (මේශ්‍රිකා ගුණ කිරීම)

Neural Networks වල layer එකක් හරහා දත්ත ගමන් කරන විට, inputs weights සමඟ ගුණ කරන්නේ matrix multiplication හරහායි. මේකෙන් තමයි models වල සංකීර්ණ සම්බන්ධතා ඉගෙන ගන්නේ.

Matrix දෙකක් ගුණ කරන්න නම්, පළවෙනි matrix එකේ columns ගණන, දෙවෙනි matrix එකේ rows ගණනට සමාන වෙන්න ඕන.

ප්‍රායෝගික උදාහරණය:

අපි හිතමු අපිට Input Matrix එකක් තියෙනවා (2x2 matrix):

A = [[1, 2],
     [3, 4]]

ඒ වගේම Weight Matrix එකක් තියෙනවා (2x1 matrix):

B = [[5],
     [6]]

Matrix Multiplication එක මෙහෙමයි:

A * B = [[(1*5) + (2*6)],
         [(3*5) + (4*6)]]
      = [[5 + 12],
         [15 + 24]]
      = [[17],
         [39]]

මේ ප්‍රතිඵලය තමයි තවත් Neural Network layer එකක output එකක් වෙන්නේ.

Linear Algebra කියන්නේ AI වලට foundation එකක්. දත්ත කොහොමද handle කරන්නේ, algorithms කොහොමද ක්‍රියා කරන්නේ කියලා තේරුම් ගන්න මේ concepts අනිවාර්යයි.

2. Calculus Basics (කැල්කියුලස් වල මූලිකාංග)

AI models ඉගෙන ගන්නේ කොහොමද? ඔවුන් හොඳටම වැඩ කරන්න නම්, අපි ඔවුන්ගේ predictions වල වැරදි (errors) අඩු කරන්න ඕන. මේ වැරදි අඩු කරන්න, ඒ කියන්නේ model එක optimize කරන්න, අපිට Calculus උදව් වෙනවා.

Calculus කියන්නේ වෙනස්වීම් (changes) ගැන අධ්‍යයනය කරන ගණිත ශාඛාවක්. AI වලදී ප්‍රධාන වශයෙන්ම Derivatives (අවකලනය) සහ Gradients (ග්‍රේඩියන්ට්) වැදගත් වෙනවා.

2.1 Derivatives (අවකලනය)

Derivative එකක් කියන්නේ function එකක output එක, input එකේ පොඩි වෙනසකට කොච්චර sensitive ද, නැත්නම් ඒක කොච්චර වේගෙන් වෙනස් වෙනවද කියලා මනින දර්ශකයක්. ග්‍රැෆ් එකක slope එක (ආනතිය) වගේ හිතන්න.

AI model එකක් loss function එකක් පාවිච්චි කරනවා, ඒකෙන් කියවෙන්නේ model එකේ වැරැද්ද කොච්චරද කියලා. මේ loss function එකේ derivative එක ගත්තාම, අපිට තේරෙනවා model එකේ parameters (weights) පොඩ්ඩක් වෙනස් කළොත් loss එක කොයි අතටද වෙනස් වෙන්නේ කියලා.

සරල උදාහරණයක්:

f(x) = x^2 කියන function එකේ derivative එක තමයි f'(x) = 2x.

f(x) = x^2

x වෙනස් වෙනකොට f(x) වෙනස් වෙන වේගය 2x වලින් පෙන්නුම් කරනවා. x = 2 නම්, f'(2) = 4. ඒ කියන්නේ x පොඩ්ඩක් වැඩි වුනොත් f(x) හතර ගුණයකින් වැඩිවෙනවා වගේ.

2.2 Gradients (ග්‍රේඩියන්ට්)

සාමාන්‍ය Derivative එකක් තනි variable එකක් තියෙන function එකකට අදාළයි. හැබැයි AI models වලට variables (parameters) දහස් ගණනක්, සමහරවිට මිලියන ගණනක් තියෙන්න පුළුවන්.

එවැනි, variables ගණනාවක් තියෙන function එකකට (multivariable function) අපි Gradient එකක් පාවිච්චි කරනවා.

Gradient එකක් කියන්නේ function එකක partial derivatives ගොඩක් එකතු කරලා හදපු vector එකක්. මේකෙන් පෙන්නුම් කරන්නේ function එකේ output එක වැඩි වෙන වේගවත්ම දිශාව (direction of steepest ascent).

AI වලදී අපි බහුලවම පාවිච්චි කරන්නේ Gradient Descent කියන optimization algorithm එක. මේකෙන් කරන්නේ, model එකේ parameters (weights) ටික පොඩි පොඩි steps වලින්, loss function එකේ gradient එකට විරුද්ධ දිශාවට (direction of steepest descent) වෙනස් කරන එක. එතකොට loss එක ක්‍රමයෙන් අඩු වෙලා, model එක හොඳටම perform කරන තැනට එනවා.

ප්‍රායෝගික උදාහරණය: Gradient Descent (සංකල්පීය)

අපි හිතමු අපිට කඳුකර ප්‍රදේශයක ඉන්නවා කියලා, අපේ පරමාර්ථය තමයි පහළම නිම්නය (lowest point) හොයාගන්න එක. හැබැයි අපිට පේන්නේ අපි ඉන්න තැන වටේ විතරයි.

  • ඔබ ඉන්න තැනින්, බිම තියෙන slope එක (gradient එක) කොයි පැත්තටද වැඩිම බෑවුමක් තියෙන්නේ කියලා බලනවා.
  • ඒ බෑවුමට විරුද්ධ දිශාවට පොඩි පියවරක් තියනවා. (ඒ කියන්නේ, පහළට යන්න).
  • මේ ක්‍රියාවලිය නැවත නැවතත් කරනවා, හැම පියවරකදීම අලුත් slope එක බලලා, පහළටම යනවා.

AI model එකක loss function එකත් මේ වගේ කන්දක් වගේ හිතන්න. අපේ goal එක තමයි loss එකේ lowest point එකට එන එක. Gradient Descent algorithm එක කරන්නේ මේකමයි:

while (loss is not minimized):
    calculate gradient of loss function with respect to weights
    update weights = weights - (learning_rate * gradient)

learning_rate කියන්නේ අපි එක පාරට කොච්චර ලොකු step එකක් තියනවද කියන එක. මේක හරිම වැදගත් parameter එකක්.

Calculus නැතුව AI models පුහුණු කරන්න (train කරන්න) බැහැ. Optimization කියන core concept එකට Calculus අත්‍යවශ්‍යයි.

3. Probability Theory (සම්භාවිතා සිද්ධාන්තය)

අපි ජීවත් වෙන්නේ uncertainty පිරිලා තියෙන ලෝකයක. AI models වලටත් මේ uncertainty එක manage කරන්න සහ ඒ ගැන තීරණ ගන්න පුළුවන් වෙන්න ඕන. මෙතනදී තමයි Probability Theory වල වැදගත්කම මතුවෙන්නේ.

Probability Theory කියන්නේ සිද්ධියක් සිදුවීමේ අවස්ථාව (likelihood) ගැන අධ්‍යයනය කරන ගණිත ශාඛාවක්. AI වලදී අපි classification, prediction, risk assessment වගේ දේවල් වලට probability පාවිච්චි කරනවා.

3.1 Distributions (ව්‍යාප්ති)

දත්ත වල හැසිරීම (behavior) තේරුම් ගන්න probability distributions උදව් වෙනවා. මේවායින් පෙන්නුම් කරන්නේ යම්කිසි variable එකක අගයන් විවිධ පරාසයන් තුළ තිබීමේ අවස්ථා මොනවාද කියලා. AI වලදී බහුලවම පාවිච්චි වෙන distributions කිහිපයක් තමයි:

  • Normal Distribution (Gaussian Distribution): මේක "bell curve" එක කියලා හඳුන්වන, දත්ත විශාල ප්‍රමාණයක ස්වාභාවික ව්‍යාප්තිය පෙන්වන distribution එකක්. බොහෝ ස්වාභාවික දත්ත (උස, බර, IQ score) මේ ව්‍යාප්තියට අනුව හැසිරෙනවා.
  • Bernoulli Distribution: "yes/no", "success/failure", "0/1" වගේ ප්‍රතිඵල දෙකක් විතරක් තියෙන සිද්ධි වල probability පෙන්වනවා. උදාහරණයක් ලෙස, කාසියක් උඩ දැමීම (heads/tails).

මේවා තේරුම් ගැනීමෙන් data එකේ underlying patterns තේරුම් ගන්න පුළුවන්.

3.2 Bayes' Theorem (බේයිස් ප්‍රමේයය)

Bayes' Theorem කියන්නේ කොන්දේසි සහිත සම්භාවිතාව (conditional probability) ගණනය කරන්න පාවිච්චි කරන ඉතාම වැදගත් සූත්‍රයක්. සරලව කිව්වොත්, අලුත් තොරතුරු ලැබුණාම අපේ පැරණි විශ්වාසයන් (beliefs) කොහොමද update කරන්නේ කියලා මේකෙන් කියනවා.

සූත්‍රය මෙහෙමයි:

P(A|B) = [P(B|A) * P(A)] / P(B)

මෙහිදී:

  • P(A|B): Posterior Probability - B සිදුවී ඇති විට A සිදුවීමේ සම්භාවිතාව (අපිට දැනගන්න ඕන දේ).
  • P(B|A): Likelihood - A සිදුවී ඇති විට B සිදුවීමේ සම්භාවිතාව.
  • P(A): Prior Probability - B ගැන කිසිම තොරතුරක් නැතිව A සිදුවීමේ සම්භාවිතාව (අපේ මුල් විශ්වාසය).
  • P(B): Evidence - B සිදුවීමේ සම්භාවිතාව.

ප්‍රායෝගික උදාහරණය: Email Spam Detection (සංකල්පීය)

Email එකක් spam ද නැද්ද කියලා තීරණය කරන්න Bayes' Theorem පාවිච්චි කරන්න පුළුවන්. අපි හිතමු "discount" කියන වචනය email එකක තියෙනවා කියලා (මෙය B). අපිට දැනගන්න ඕන මේ email එක spam වෙන්න තියෙන සම්භාවිතාව (A = spam email) කොච්චරද කියන එක.

  • P(Spam|"discount"): "discount" කියන වචනය තියෙන email එකක් spam වෙන්න තියෙන සම්භාවිතාව. (අපිට දැනගන්න ඕන දේ)
  • P("discount"|Spam): spam email එකක "discount" කියන වචනය තියෙන්න තියෙන සම්භාවිතාව. (අපි කලින් spam emails වලින් ඉගෙන ගත්ත දේ)
  • P(Spam): ඕනෑම email එකක් spam වෙන්න තියෙන මුළු සම්භාවිතාව. (අපේ මුල් විශ්වාසය)
  • P("discount"): ඕනෑම email එකක "discount" කියන වචනය තියෙන්න තියෙන සම්භාවිතාව.

මේ විදියට, "discount" කියන වචනය දැක්කාම, email එක spam වෙන්න තියෙන අවස්ථාව වැඩිද අඩුද කියලා Bayes' Theorem එකෙන් calculate කරන්න පුළුවන්. Naive Bayes Classifiers වගේ algorithms මේ සිද්ධාන්තය මත පදනම් වෙලා තමයි වැඩ කරන්නේ.

Probability Theory කියන්නේ model එකක output එක තනිකරම "yes" හෝ "no" කියලා දෙනවට වඩා, "90% ක් විශ්වාසයි මේක yes" වගේ confidence level එකක් එක්ක තීරණ ගන්න උදව් වෙන දෙයක්. මේක AI වලට හරිම වැදගත්.

4. Statistical Concepts (සංඛ්‍යාන සංකල්ප)

දත්ත තේරුම් ගන්න, ඒකෙන් තොරතුරු උකහා ගන්න, සහ ඒ තොරතුරු මත පීරම් ගන්න Statistics කියන්නේ අත්‍යවශ්‍යම දෙයක්. AI සහ Machine Learning වලදී, අපේ models වල performance evaluate කරන්න, data එක explore කරන්න, සහ patterns හඳුනාගන්න statistics උදව් වෙනවා.

4.1 Mean, Variance, Standard Deviation (මධ්‍යන්‍යය, විචල්‍යතාවය, සම්මත අපගමනය)

මේවා Descriptive Statistics වලට අයිති වෙනවා, ඒ කියන්නේ දත්ත සමූහයක් (dataset) සාරාංශගත කරන්න (summarize) පාවිච්චි කරන මිනුම්.

  • Mean (මධ්‍යන්‍යය): දත්ත සමූහයක සාමාන්‍ය අගය (average). හැම අගයක්ම එකතු කරලා, අගයන් ගණනින් බෙදුවාම මේක ලැබෙනවා. මේක central tendency (දත්ත කොහෙද කේන්ද්‍රගත වෙලා තියෙන්නේ) පෙන්නුම් කරනවා.
  • Variance (විචල්‍යතාවය): දත්ත, මධ්‍යන්‍යයෙන් කොච්චර විසිරිලා තියෙනවද (spread out) කියලා පෙන්වනවා. වැඩි variance එකක් කියන්නේ දත්ත මධ්‍යන්‍යයෙන් දුරට විසිරිලා තියෙනවා කියන එකයි.
  • Standard Deviation (සම්මත අපගමනය): Variance එකේ වර්ගමූලය (square root). මේකත් දත්ත විසරණය (spread) මනිනවා, හැබැයි මුල් data එකේ units වලින්ම. ඒ නිසා තේරුම් ගන්න පහසුයි.

ප්‍රායෝගික උදාහරණය: ලකුණු විශ්ලේෂණය

අපි හිතමු විභාගයකදී ළමයි 5 දෙනෙක් ගත්ත ලකුණු මෙහෙමයි:

Scores = [80, 90, 70, 85, 95]

Mean Calculation (මධ්‍යන්‍යය ගණනය කිරීම)

Mean = (80 + 90 + 70 + 85 + 95) / 5
     = 420 / 5
     = 84

මේකෙන් කියවෙන්නේ සාමාන්‍යයෙන් ළමයින් ලකුණු 84ක් අරගෙන තියෙනවා කියලා.

Variance Calculation (විචල්‍යතාවය ගණනය කිරීම)

මුලින්ම, එක් එක් ලකුණ mean එකෙන් අඩු කරලා, ඒක වර්ග කරගමු:

(80-84)^2 = (-4)^2 = 16
(90-84)^2 = (6)^2  = 36
(70-84)^2 = (-14)^2 = 196
(85-84)^2 = (1)^2  = 1
(95-84)^2 = (11)^2 = 121

Sum of squared differences = 16 + 36 + 196 + 1 + 121 = 370

Variance = Sum of squared differences / (Number of scores - 1)
         = 370 / (5 - 1)
         = 370 / 4
         = 92.5

(Number of scores - 1 පාවිච්චි කරන්නේ sample variance ගණනය කිරීමේදී, population variance නම් Number of scores වලින් බෙදනවා.)

Standard Deviation Calculation (සම්මත අපගමනය ගණනය කිරීම)

Standard Deviation = sqrt(Variance)
                   = sqrt(92.5)
                   = 9.617

Standard Deviation එක 9.617 කියන්නේ, සාමාන්‍යයෙන් ළමයින්ගේ ලකුණු සාමාන්‍ය අගයෙන් (84) 9.617 කින් එහා මෙහා වෙනවා කියන එකයි.

4.2 Correlation (සම්බන්ධතාවය)

Correlation කියන්නේ variables දෙකක් අතර තියෙන සම්බන්ධතාවයේ ශක්තිමත්භාවය සහ දිශාව මනින සංඛ්‍යානයක්. ඒ කියන්නේ එක variable එකක් වෙනස් වෙනකොට අනිත් එකත් ඒ වගේම වෙනස් වෙනවද කියලා බලන එක.

  • Positive Correlation: එක variable එකක් වැඩි වෙනකොට, අනිත් එකත් වැඩි වෙනවා (උදා: ඉගෙන ගන්න වෙලාව වැඩි වෙනකොට විභාග ලකුණු වැඩි වෙනවා).
  • Negative Correlation: එක variable එකක් වැඩි වෙනකොට, අනිත් එක අඩු වෙනවා (උදා: ව්‍යායාම කරන වෙලාව වැඩි වෙනකොට බර අඩු වෙනවා).
  • No Correlation: variables දෙක අතර පැහැදිලි සම්බන්ධයක් නැහැ.

Correlation එක -1 ත් +1 ත් අතර අගයක් ගන්නවා. +1 කියන්නේ ඉතා ශක්තිමත් positive correlation, -1 කියන්නේ ඉතා ශක්තිමත් negative correlation, 0 කියන්නේ correlation එකක් නැහැ කියන එකයි.

AI වලදී, feature selection වලට, ඒ වගේම models වල inputs අතර dependencies තේරුම් ගන්න correlation වැදගත් වෙනවා.

Statistics කියන්නේ දත්ත වලින් අර්ථවත් තොරතුරු උකහා ගන්න තියෙන ප්‍රබලම tool එකක්. ඒක නැතුව effective AI models හදන්න බැහැ.

නිගමනය (Conclusion)

ඉතින් යාළුවනේ, මේ tutorial එකෙන් අපි AI සහ Machine Learning කියන අතිවිශාල ක්ෂේත්‍රයේ වැඩ කරන්න අත්‍යවශ්‍යම වෙන ගණිතමය පදනම ගැන සාකච්ඡා කළා. Linear Algebra වලින් දත්ත නිරූපණය කරන හැටිත්, Calculus වලින් models optimize කරන හැටිත්, Probability Theory වලින් uncertainty manage කරන හැටිත්, ඒ වගේම Statistics වලින් දත්ත තේරුම් ගන්නා හැටිත් අපි ඉගෙන ගත්තා.

ඇත්තටම කිව්වොත්, මේවා AI වලට අදාළ ගණිතයේ මූලිකම දේවල් විතරයි. මේ හැම ක්ෂේත්‍රයකම තව ගැඹුරු concepts ඕන තරම් තියෙනවා. හැබැයි, මේ මූලික දැනුම ඔයාගේ ගමනට හොඳ ආරම්භයක් ලබා දේවි.

කවදාවත් AI කියන්නේ මැජික් එකක් කියලා හිතන්න එපා. ඒක පිටිපස්සේ තියෙන්නේ solid maths සහ logic. මේවා තේරුම් ගත්තොත් ඔයාලට වඩාත් effective, reliable, සහ explainable AI systems හදන්න පුළුවන් වෙනවා. ඒ වගේම, research papers කියවද්දී හෝ advanced topics ඉගෙන ගනිද්දී මේ දැනුම ඔයාලට ලොකු ශක්තියක් වේවි.

මේ concepts ගැන ඔයාලට ප්‍රශ්න තියෙනවා නම්, නැත්නම් ඔයාලගේ අත්දැකීම් කොමෙන්ට් සෙක්ෂන් එකේ පහළින් ලියන්න අමතක කරන්න එපා. පුළුවන් නම් ඔයාලගේ ඊළඟ AI project එකේදී මේ ගණිතමය මූලධර්ම කොහොමද ක්‍රියාත්මක වෙන්නේ කියලා බලන්න උත්සාහ කරන්න. Theory එක විතරක් නෙවෙයි, practice එකත් හරිම වැදගත්!

තවත් අලුත් දෙයක් ඉගෙන ගන්න සූදානම් වෙලා ඉන්න ඔයාලා හැමෝටම ජය!