EITC/AI/DLPP Diep leer met Python en PyTorch is die Europese IT-sertifiseringsprogram op die basis van programmering van diep leer in Python met die PyTorch-masjienleerbiblioteek.
Die kurrikulum van die EITC/AI/DLPP Deep Learning with Python en PyTorch fokus op praktiese vaardighede in diep leer Python-programmering met PyTorch-biblioteek wat binne die volgende struktuur georganiseer is, wat omvattende videodidaktiese inhoud bevat as verwysing vir hierdie EITC-sertifisering.
Diep leer (ook bekend as diep gestruktureerde leer) is deel van 'n breër familie van masjienleermetodes gebaseer op kunsmatige neurale netwerke met voorstellingsleer. Leer kan onder toesig, semi-toesig of sonder toesig wees. Diep leer-argitekture soos diepe neurale netwerke, diepe geloofsnetwerke, herhalende neurale netwerke en konvolusionele neurale netwerke is toegepas op velde, insluitend rekenaarvisie, masjienvisie, spraakherkenning, verwerking van natuurlike taal, klankherkenning, sosiale netwerkfiltering, masjienvertaling, bioinformatika geneesmiddelontwerp, mediese beeldontleding, materiaalinspeksie en bordspeletjieprogramme, waar dit resultate opgelewer het wat vergelykbaar is met en in sommige gevalle beter is as menslike kundige prestasies.
Python is 'n geïnterpreteerde, hoë vlak en algemene programmeertaal. Python se ontwerpfilosofie beklemtoon die leesbaarheid van die kode deur die noemenswaardige gebruik van 'n groot ruimte. Sy taalkonstruksies en objekgerigte benadering is daarop gemik om programmeerders te help om duidelike, logiese kode vir klein en grootskaalse projekte te skryf. Vanweë die uitgebreide standaardbiblioteek word Python dikwels beskryf as 'n “batterye ingesluit” -taal. Python word algemeen gebruik in kunsmatige intelligensieprojekte en masjienleerprojekte met behulp van biblioteke soos TensorFlow, Keras, Pytorch en Scikit-leer.
Python is dinamies getik (voer tydens algemene gebruik baie algemene programmeringsgedrag uit wat statiese programmeertale tydens samestelling uitvoer) en vullis versamel (met outomatiese geheuebestuur). Dit ondersteun verskeie programmeringsparadigmas, insluitend gestruktureerde (veral prosedurele), objekgerigte en funksionele programmering. Dit is in die laat 1980's geskep, en die eerste keer vrygestel in 1991 deur Guido van Rossum as 'n opvolger van die ABC-programmeertaal. Python 2.0, wat in 2000 vrygestel is, het nuwe funksies bekendgestel, soos 'n lysbegrip, en 'n vullisverwyderingstelsel met verwysingtelling, en is in 2.7 met weergawe 2020 gestaak. Python 3.0, wat in 2008 vrygestel is, was 'n belangrike hersiening van die taal wat nie heeltemal agtertoe-versoenbaar nie en baie Python 2-kode loop nie onveranderd op Python 3. nie. Met Python 2 se einde van die lewe (en pip het die ondersteuning in 2021 laat val), word slegs Python 3.6.x en later ondersteun, met nog ouer weergawes ondersteun byvoorbeeld Windows 7 (en ou installeerders nie beperk tot 64-bis Windows nie).
Python-tolke word ondersteun vir hoofstroom-bedryfstelsels en is beskikbaar vir 'n paar meer (en in die verlede baie meer ondersteun). 'N Globale gemeenskap van programmeerders ontwikkel en onderhou CPython, 'n gratis en open source-verwysingsimplementering. 'N Organisasie sonder winsbejag, die Python Software Foundation, bestuur en stuur hulpbronne vir die ontwikkeling van Python en CPython.
Met ingang van Januarie 2021 beklee Python die derde plek in TIOBE se indeks van gewildste programmeertale, agter C en Java, nadat hy voorheen die tweede plek behaal het en die toekenning vir die gewildste wins vir 2020 behaal het. In 2007, 2010 is dit die programmeertaal van die jaar gekies. , en 2018.
In 'n empiriese studie is bevind dat skripttale, soos Python, produktiewer is as konvensionele tale, soos C en Java, vir programmeringsprobleme met betrekking tot snaarmanipulasie en soek in 'n woordeboek, en het vasgestel dat geheueverbruik dikwels 'beter is as Java en nie baie erger as C of C ++ ”. Groot organisasies wat Python gebruik, is onder andere Wikipedia, Google, Yahoo !, CERN, NASA, Facebook, Amazon, Instagram.
Behalwe vir kunsmatige intelligensie-toepassings, word Python, as 'n skriptaal met modulêre argitektuur, eenvoudige sintaksis en ryk teksverwerkingsinstrumente, dikwels gebruik vir die verwerking van natuurlike tale.
PyTorch is 'n oopbron-masjienleerbiblioteek gebaseer op die Torch-biblioteek, wat gebruik word vir toepassings soos rekenaarvisie en natuurlike taalverwerking, hoofsaaklik ontwikkel deur Facebook se AI Research lab (FAIR). Dit is gratis en oopbronsagteware wat onder die Gewysigde BSD-lisensie vrygestel word. Alhoewel die Python-koppelvlak meer gepoleer is en die primêre fokus van ontwikkeling is, het PyTorch ook 'n C ++ -koppelvlak. 'N Aantal stukke Deep Learning-sagteware is bo-op PyTorch gebou, waaronder Tesla Autopilot, Uber's Pyro, HuggingFace's Transformers, PyTorch Lightning en Catalyst.
- Tensorberekening (soos NumPy) met sterk versnelling via grafiese verwerkingseenhede (GPU)
- Diep neurale netwerke gebou op 'n bandgebaseerde outomatiese (berekenings) differensiasie-stelsel
Facebook bedryf beide PyTorch en Convolutional Architecture for Fast Feature Embedding (Caffe2), maar modelle wat deur die twee raamwerke gedefinieer word, was onderling onversoenbaar. Die Open Neural Network Exchange (ONNX) -projek is in September 2017 deur Facebook en Microsoft geskep vir die omskakeling van modelle tussen raamwerke. Caffe2 is einde Maart 2018 in PyTorch saamgevoeg.
PyTorch definieer 'n klas genaamd Tensor (fakkel. Tensor) om homogene multidimensionele reghoekige skikkings van getalle op te slaan en te werk. PyTorch Tensors is soortgelyk aan NumPy Arrays, maar kan ook op 'n CUDA-geskikte Nvidia GPU gebruik word. PyTorch ondersteun verskillende subtipes Tensors.
Daar is min belangrike modules vir Pytorch. Dit sluit in:
- Autograd-module: PyTorch gebruik 'n metode genaamd outomatiese differensiasie. 'N Optekenaar teken aan wat bewerkings uitgevoer het, en speel dit dan agteruit om die gradiënte te bereken. Hierdie metode is veral kragtig wanneer u neurale netwerke bou om tyd in een tyd te bespaar deur die differensiasie van die parameters by die voorwaartse pas te bereken.
- Optim-module: torch.optim is 'n module wat verskillende optimaliseringsalgoritmes implementeer wat gebruik word vir die bou van neurale netwerke. Die meeste van die algemeen gebruikte metodes word al ondersteun, en dit is dus nie nodig om dit van nuuts af te bou nie.
- nn module: PyTorch autograd maak dit maklik om berekeningsgrafieke te definieer en gradiënte te neem, maar rou autograd kan 'n bietjie te laag wees om komplekse neurale netwerke te definieer. Dit is waar die nn-module kan help.
Om jouself in besonderhede te vergewis van die sertifiseringskurrikulum, kan jy die tabel hieronder uitbrei en ontleed.
Die EITC/AI/DLPP Deep Learning with Python and PyTorch Certification Curriculum verwys na oop-toegang didaktiese materiaal in 'n videovorm deur Harrison Kinsley. Leerproses word verdeel in 'n stap-vir-stap-struktuur (programme -> lesse -> onderwerpe) wat relevante kurrikulumdele dek. Onbeperkte konsultasie met domeinkundiges word ook verskaf.
Gaan na vir besonderhede oor die Sertifiseringsprosedure Hoe dit werk.
Laai die volledige vanlyn selflerende voorbereidingsmateriaal vir die EITC/AI/DLPP Deep Learning with Python en PyTorch-program in 'n PDF-lêer af
EITC/AI/DLPP voorbereidende materiaal – standaard weergawe
EITC/AI/DLPP voorbereidende materiaal – uitgebreide weergawe met hersieningsvrae