×
1 Kies EITC/EITCA-sertifikate
2 Leer en neem aanlyn eksamens
3 Kry jou IT-vaardighede gesertifiseer

Bevestig jou IT-vaardighede en bevoegdhede onder die Europese IT-sertifiseringsraamwerk van enige plek in die wêreld volledig aanlyn.

EITCA Akademie

Digitale vaardigheidsverklaringstandaard deur die Europese IT-sertifiseringsinstituut wat daarop gemik is om die ontwikkeling van die digitale samelewing te ondersteun

Teken in op u rekening deur u gebruikersnaam of e-posadres

MAAK 'N REKENING OOP Jou wagwoord vergeet?

VERGELY JOU BESONDERHEDE?

AAH, wag, ek dink tog!

MAAK 'N REKENING OOP

REEDS 'N REKENING?
EUROPESE INLIGTINGSTEGNOLOGIEË SERTIFIKASIE-AKADEMIE - U BEVESTIG U PROFESSIONELE DIGITALE VAARDIGHEDE
  • TEKEN OP
  • LOGGEN
  • INFO

EITCA Akademie

EITCA Akademie

Die Europese Inligtingstegnologie-sertifiseringsinstituut - EITCI ASBL

Sertifiseringsowerheid

EITCI Instituut

Brussel, Europese Unie

Besturende Europese IT-sertifisering (EITC) standaard ter ondersteuning van die IT-professionaliteit en digitale vereniging

  • SERTIFIKATE
    • EITCA AKADEMIES
      • EITCA AKADEMIESE KATALOGUS<
      • EITCA/CG REKENAARGRAFIKA
      • EITCA/IS INLIGTINGSVEILIGHEID
      • EITCA/BI BESIGHEIDSINLIGTING
      • EITCA/KC SLEUTELBEVOEGDHEDE
      • EITCA/EG E-REGERING
      • EITCA/WD WEBONTWIKKELING
      • EITCA/AI KUNSMATIGE INTELLIGENSIE
    • EITC SERTIFIKATE
      • EITC SERTIFIKATE KATALOGUS<
      • REKENAARGRAFIKIESERTIFIKATE
      • SERTIFIKATE VAN WEB-ONTWERP
      • 3D-ONTWERPSERTIFIKATE
      • KANTOOR DIT SERTIFIKATE
      • BITCOIN BLOCKCHAIN ​​SERTIFIKAAT
      • WOORDDRUKSERTIFIKAAT
      • WOLKPLATFORM SERTIFIKAATNUWE
    • EITC SERTIFIKATE
      • INTERNET SERTIFIKATE
      • KRYPTOGRAFIESERTIFIKATE
      • BESIGHEID DIT SERTIFIKATE
      • TELEWERKSERTIFIKATE
      • PROGRAMMERING VAN SERTIFIKATE
      • DIGITALE PORTRETSERTIFIKAAT
      • WEB-ONTWIKKELINGSERTIFIKATE
      • DIEP LEER SERTIFIKATENUWE
    • SERTIFIKATE VIR
      • OPENBARE ADMINISTRASIE van die EU
      • ONDERWYSERS EN OPVOEDERS
      • PROFESSIONELE VAN IT-SEKURITEIT
      • GRAFIESE ONTWERPERS EN KUNSTENAARS
      • SAKE EN BESTUURDERS
      • BLOCKCHAIN ​​ONTWIKKELERS
      • WEB-ONTWIKKELAARS
      • CLOUD AI KENNERSNUWE
  • VOORGESTELDE
  • SUBSIDIE
  • HOE DIT WERK
  •   IT ID
  • OOR
  • KONTAK
  • MY BESTELLING
    U huidige bestelling is leeg.
EITCIINSTITUTE
CERTIFIED

EITC/AI/ARL Gevorderde versterkte leer

Sondag, 07 Februarie 2021 by admin

EITC/AI/ARL Advanced Reinforced Learning is die Europese IT-sertifiseringsprogram oor DeepMind se benadering tot versterkte leer in kunsmatige intelligensie.

Die kurrikulum van die EITC/AI/ARL Advanced Reinforced Learning fokus op teoretiese aspekte en praktiese vaardighede in versterkte leertegnieke vanuit die perspektief van DeepMind, georganiseer in die volgende struktuur, wat omvattende videodidaktiese inhoud bevat as verwysing vir hierdie EITC-sertifisering.

Versterkingsleer (RL) is 'n gebied van masjienleer wat handel oor hoe intelligente agente in 'n omgewing moet optree om die idee van kumulatiewe beloning te maksimeer. Versterkingsleer is een van drie basiese masjienleerparadigmas, saam met leer onder toesig en leer sonder toesig.

Versterkingsleer verskil van leer onder toesig deurdat u nie die gemerkte invoer-/uitsetpare hoef te bied nie, en dat dit nie nodig is om suboptimale aksies eksplisiet reg te stel nie. In plaas daarvan is die fokus op die vind van 'n balans tussen verkenning (van onbekende gebied) en ontginning (van huidige kennis).

Die omgewing word gewoonlik in die vorm van 'n Markov-besluitproses (MDP) gestel, omdat baie versterkingsleeralgoritmes vir hierdie konteks gebruik maak van dinamiese programmeringstegnieke. Die belangrikste verskil tussen klassieke dinamiese programmeringsmetodes en versterkingsleeralgoritmes is dat laasgenoemde nie kennis aanvaar van 'n presiese wiskundige model van die MDP nie, en dat dit groot MDP's is waar presiese metodes onuitvoerbaar word.

Vanweë die algemeenheid daarvan, word versterkingsleer in baie dissiplines bestudeer, soos spelteorie, beheerteorie, operasionele navorsing, inligtingsteorie, simulasiegebaseerde optimalisering, multi-agentstelsels, swermintelligensie en statistieke. In die operasionele navorsings- en kontroleliteratuur word versterkingsleer benaderde dinamiese programmering, oftewel neuro-dinamiese programmering, genoem. Die probleme van belangstelling in versterkingsleer is ook bestudeer in die teorie van optimale beheer, wat meestal handel oor die bestaan ​​en karakterisering van optimale oplossings, en algoritmes vir die presiese berekening daarvan, en minder oor leer of benadering, veral in die afwesigheid van 'n wiskundige model van die omgewing. In die ekonomie en spelteorie kan versterkingsleer gebruik word om te verduidelik hoe ewewig onder beperkte rasionaliteit kan ontstaan.

Basiese versterking word geskoei as 'n Markov-besluitproses (MDP). In wiskunde is 'n Markov-besluitnemingsproses (MDP) 'n diskrete tydstogastiese beheerproses. Dit bied 'n wiskundige raamwerk vir die modellering van besluitneming in situasies waar uitkomste gedeeltelik lukraak en deels onder die beheer van 'n besluitnemer is. MDP's is nuttig vir die bestudering van optimaliseringsprobleme wat deur dinamiese programmering opgelos word. MDP's was minstens so vroeg in die 1950's bekend. 'N Belangrike ondersoek na Markov-besluitnemingsprosesse is die gevolg van Ronald Howard se boek Dynamic Programming en Markov Processes uit 1960. Dit word in baie vakgebiede gebruik, waaronder robotika, outomatiese beheer, ekonomie en vervaardiging. Die naam van MDP's kom van die Russiese wiskundige Andrey Markov, want dit is 'n uitbreiding van Markov-kettings.

By elke tydstip is die proses in een of ander toestand S en kan die besluitnemer enige aksie a kies wat beskikbaar is in toestand S. Die proses reageer op die volgende stap deur lukraak na 'n nuwe toestand S 'te beweeg en die besluitnemer 'n ooreenstemmende beloning Ra (S, S ').

Die waarskynlikheid dat die proses in sy nuwe toestand S 'beweeg, word beïnvloed deur die gekose aksie a. Spesifiek word dit gegee deur die toestand oorgangsfunksie Pa (S, S '). Die volgende toestand S hang dus af van die huidige toestand S en die optrede van die besluitnemer a. Maar gegewe S en a, is dit voorwaardelik onafhanklik van alle vorige state en optrede. Met ander woorde, die staatsoorgange van 'n MDP bevredig die Markov-eiendom.

Markov-besluitprosesse is 'n uitbreiding van Markov-kettings; die verskil is die toevoeging van aksies (keuse toelaat) en belonings (motivering gee). Omgekeerd, as slegs een aksie vir elke staat bestaan ​​(bv. 'Wag') en alle belonings dieselfde is (bv. 'Nul'), verminder 'n Markov-besluit tot 'n Markov-ketting.

'N Versterkingsleeragent werk in diskrete tydstappe met sy omgewing. Telkens ontvang t die agent die huidige toestand S (t) en beloning r (t). Dit kies dan 'n aksie a (t) uit die beskikbare aksies wat dan na die omgewing gestuur word. Die omgewing beweeg na 'n nuwe toestand S (t + 1) en die beloning r (t + 1) wat verband hou met die oorgang word bepaal. Die doel van 'n agent vir versterkingsleer is om 'n beleid aan te leer wat die verwagte kumulatiewe beloning maksimeer.

Die formulering van die probleem as 'n MDP neem aan dat die agent die huidige omgewingstoestand direk in ag neem. In hierdie geval word gesê dat die probleem volledig waarneembaar is. As die agent slegs toegang het tot 'n deelversameling van state, of as die waargenome toestande deur geraas beskadig word, word gesê dat die agent gedeeltelik waarneembaar is, en formeel moet die probleem geformuleer word as 'n gedeeltelik waarneembare Markov-besluitproses. In beide gevalle kan die stel aksies wat tot die agent se beskikking is, beperk word. Die toestand van 'n rekeningsaldo kan byvoorbeeld beperk word tot positief; as die huidige waarde van die staat 3 is en die toestandoorgang probeer om die waarde met 4 te verlaag, sal die oorgang nie toegelaat word nie.

As die agent se prestasie vergelyk word met dié van 'n agent wat optimaal optree, gee die verskil in prestasie die idee van spyt. Om optimaal op te tree, moet die agent redeneer oor die langtermyngevolge van sy optrede (dws om toekomstige inkomste te maksimeer), alhoewel die onmiddellike beloning hieraan verbonde negatief kan wees.

Versterkingsleer is dus besonder geskik vir probleme wat 'n vergoeding vir langtermyn- en korttermynbeloning insluit. Dit is suksesvol toegepas op verskillende probleme, insluitend robotbeheer, hysskedulering, telekommunikasie, backgammon, checkers en Go (AlphaGo).

Twee elemente maak versterkingsleer kragtig: die gebruik van monsters om prestasie te optimaliseer en die gebruik van funksiebenadering om groot omgewings te hanteer. Danksy hierdie twee sleutelkomponente kan versterkingsleer in groot omgewings in die volgende situasies gebruik word:

  • 'N Omgewingsmodel is bekend, maar 'n analitiese oplossing is nie beskikbaar nie.
  • Slegs 'n simulasiemodel van die omgewing word gegee (die onderwerp van simulasiegebaseerde optimalisering).
  • Die enigste manier om inligting oor die omgewing te versamel, is om daarmee te kommunikeer.

Die eerste twee van hierdie probleme kan as beplanningsprobleme beskou word (aangesien daar 'n vorm beskikbaar is), terwyl die laaste een as 'n ware leerprobleem beskou kan word. Versterkingsleer skakel egter albei beplanningsprobleme om na masjienleerprobleme.

Die kompromie tussen eksplorasie en uitbuiting is deeglik bestudeer deur die veelarmige bandietprobleem en vir eindige staatsruimte-MDP's in Burnetas en Katehakis (1997).

Versterkingsleer vereis slim eksplorasiemeganismes; lukrake keuse van aksies, sonder verwysing na 'n geskatte waarskynlikheidsverdeling, toon swak prestasie. Die geval van (klein) eindige Markov-besluitnemingsprosesse word relatief goed verstaan. Vanweë die gebrek aan algoritmes wat goed skaal met die aantal toestande (of skaal tot probleme met oneindige toestandsruimtes), is eenvoudige ondersoekmetodes egter die mees praktiese.

Selfs al word die verkenningskwessie buite rekening gelaat en selfs al was die staat waarneembaar, bly die probleem om ervaring uit die verlede te gebruik om uit te vind watter aksies tot hoër kumulatiewe belonings lei.

Om jouself in besonderhede te vergewis van die sertifiseringskurrikulum, kan jy die tabel hieronder uitbrei en ontleed.

Die EITC/AI/ARL Gevorderde Versterkte Leersertifiseringskurrikulum verwys na oop-toegang didaktiese materiaal in 'n videovorm. Leerproses word verdeel in 'n stap-vir-stap-struktuur (programme -> lesse -> onderwerpe) wat relevante kurrikulumdele dek. Onbeperkte konsultasie met domeinkundiges word ook verskaf.
Gaan na vir besonderhede oor die Sertifiseringsprosedure Hoe dit werk.

Lees meer
Geen kommentaar

EITC/AI/ADL Gevorderde diep leer

Sondag, 07 Februarie 2021 by admin

EITC/AI/ADL Advanced Deep Learning is die Europese IT-sertifiseringsprogram op Google DeepMind se benadering tot gevorderde diep leer vir kunsmatige intelligensie.

Die kurrikulum van die EITC/AI/ADL Advanced Deep Learning fokus op teoretiese aspekte en praktiese vaardighede in gevorderde diepleertegnieke vanuit die oogpunt van Google DeepMind wat binne die volgende struktuur georganiseer is, wat omvattende videodidaktiese inhoud bevat as verwysing vir hierdie EITC-sertifisering.

Diep leer (ook bekend as diep gestruktureerde leer) is deel van 'n breër familie van masjienleermetodes gebaseer op kunsmatige neurale netwerke met voorstellingsleer. Leer kan onder toesig, semi-toesig of sonder toesig wees. Diep leer-argitekture soos diepe neurale netwerke, diepe geloofsnetwerke, herhalende neurale netwerke en konvolusionele neurale netwerke is toegepas op velde, insluitend rekenaarvisie, masjienvisie, spraakherkenning, verwerking van natuurlike taal, klankherkenning, sosiale netwerkfiltering, masjienvertaling, bioinformatika geneesmiddelontwerp, mediese beeldontleding, materiaalinspeksie en bordspeletjieprogramme, waar dit resultate opgelewer het wat vergelykbaar is met en in sommige gevalle beter is as menslike kundige prestasies.

Kunsmatige neurale netwerke (ANN's) is geïnspireer deur inligtingverwerking en verspreide kommunikasieknope in biologiese stelsels. Die byvoeglike naamwoord "diep" in diep leer verwys na die gebruik van verskeie lae in die netwerk. Vroeë werk het getoon dat 'n lineêre perseptron nie 'n universele klassifiseerder kan wees nie, en dat 'n netwerk met 'n nie-polinoom-aktiveringsfunksie met een verborge laag van onbegrensde breedte daarenteen kan wees. Diep leer is 'n moderne variasie wat te make het met 'n onbeperkte aantal lae van begrensde grootte, wat praktiese toepassing en optimale implementering moontlik maak, terwyl die teoretiese universaliteit onder sagte omstandighede behoue ​​bly. In diepgaande leer kan die lae ook heterogeen wees en wyd afwyk van biologies ingeligte konneksionistiese modelle ter wille van doeltreffendheid, opleibaarheid en verstaanbaarheid, waarvandaan die 'gestruktureerde' deel is.

Om jouself in besonderhede te vergewis van die sertifiseringskurrikulum, kan jy die tabel hieronder uitbrei en ontleed.

Die EITC/AI/ADL Advanced Deep Learning Sertifiseringskurrikulum verwys na ooptoegang didaktiese materiaal in 'n videovorm. Leerproses word verdeel in 'n stap-vir-stap-struktuur (programme -> lesse -> onderwerpe) wat relevante kurrikulumdele dek. Onbeperkte konsultasie met domeinkundiges word ook verskaf.
Gaan na vir besonderhede oor die Sertifiseringsprosedure Hoe dit werk.

Lees meer
Geen kommentaar

EITC/AI/TFF TensorFlow Fundamentals

Saterdag, 06 Februarie 2021 by admin

EITC/AI/TFF TensorFlow Fundamentals is die Europese IT-sertifiseringsprogram op die Google TensorFlow-masjienleerbiblioteek wat programmering van kunsmatige intelligensie moontlik maak.

Die kurrikulum van die EITC/AI/TFF TensorFlow Fundamentals fokus op die teoretiese aspekte en praktiese vaardighede in die gebruik van die TensorFlow-biblioteek wat binne die volgende struktuur georganiseer is, en omvattende videodidaktiese inhoud as verwysing vir hierdie EITC-sertifisering.

TensorFlow is 'n gratis en oopbron sagteware-biblioteek vir masjienleer. Dit kan in verskillende take gebruik word, maar fokus veral op opleiding en afleiding van diep neurale netwerke. Dit is 'n simboliese wiskundebiblioteek wat gebaseer is op datavloei en onderskeibare programmering. Dit word gebruik vir sowel navorsing as produksie by Google.

TensorFlow is ontwikkel deur die Google Brain-span vir interne Google-gebruik. Dit is in 2.0 vrygestel onder die Apache License 2015.

Vanaf 2011 het Google Brain DistBelief gebou as 'n eie masjienleerstelsel gebaseer op neurale netwerke met diep leer. Die gebruik daarvan het vinnig toegeneem in verskillende Alfabet-ondernemings in sowel navorsings- as kommersiële toepassings. Google het verskeie rekenaarwetenskaplikes, waaronder Jeff Dean, aangewys om die kodebasis van DistBelief te vereenvoudig in 'n vinniger, meer robuuste biblioteek vir toepassingsgraad, wat TensorFlow geword het. In 2009 het die span, onder leiding van Geoffrey Hinton, algemene backpropagation en ander verbeterings geïmplementeer wat die opwekking van neurale netwerke met 'n aansienlik hoër akkuraatheid moontlik gemaak het, byvoorbeeld 'n vermindering van 25% in spraakherkenning met XNUMX%.

TensorFlow is die tweede generasie stelsel van Google Brain. Weergawe 1.0.0 is op 11 Februarie 2017 vrygestel. Alhoewel die verwysingsimplementering op enkele toestelle uitgevoer word, kan TensorFlow op verskeie SVE's en GPU's werk (met opsionele CUDA- en SYCL-uitbreidings vir algemene rekenaars op grafiese verwerkingseenhede). TensorFlow is beskikbaar op 64-bis Linux-, macOS-, Windows- en mobiele rekenaarplatforms, insluitend Android en iOS. Die buigsame argitektuur maak dit maklik om berekenings op verskillende platforms (CPU's, GPU's, TPU's) te implementeer, en van lessenaars tot bedienersgroepe tot mobiele en randtoestelle. TensorFlow-berekeninge word uitgedruk as statiewe datavloeigrafieke. Die naam TensorFlow is afgelei van die bewerkings wat sulke neurale netwerke op multidimensionele data-skikkings uitvoer, wat tensors genoem word. Tydens die Google I/O-konferensie in Junie 2016 het Jeff Dean gesê dat 1,500 bewaarplekke op GitHub TensorFlow genoem het, waarvan slegs 5 van Google afkomstig was. In Desember 2017 stel ontwikkelaars van Google, Cisco, RedHat, CoreOS en CaiCloud Kubeflow tydens 'n konferensie bekend. Met Kubeflow kan TensorFlow op Kubernetes bedryf en ontplooi word. In Maart 2018 het Google TensorFlow.js weergawe 1.0 vir masjienleer in JavaScript aangekondig. In Januarie 2019 het Google TensorFlow 2.0 aangekondig. Dit het amptelik beskikbaar geword in September 2019. In Mei 2019 het Google TensorFlow Graphics aangekondig vir diep leer in rekenaargrafika.

Om jouself in besonderhede te vergewis van die sertifiseringskurrikulum, kan jy die tabel hieronder uitbrei en ontleed.

Die EITC/AI/TFF TensorFlow Fundamentals-sertifiseringskurrikulum verwys na oop-toegang didaktiese materiaal in 'n videovorm. Leerproses word verdeel in 'n stap-vir-stap-struktuur (programme -> lesse -> onderwerpe) wat relevante kurrikulumdele dek. Onbeperkte konsultasie met domeinkundiges word ook verskaf.
Gaan na vir besonderhede oor die Sertifiseringsprosedure Hoe dit werk.

Lees meer
Geen kommentaar

EITC/AI/TFQML TensorFlow Quantum Machine Learning

Vrydag, 05 Februarie 2021 by admin

EITC/AI/TFQML TensorFlow Quantum Machine Learning is die Europese IT-sertifiseringsprogram vir die gebruik van Google TensorFlow Quantum-biblioteek vir die implementering van masjienleer in Google Quantum Processor Sycamore-argitektuur.

Die kurrikulum van die EITC/AI/TFQML TensorFlow Quantum Machine Learning fokus op teoretiese kennis en praktiese vaardighede in die gebruik van Google se TensorFlow Quantum-biblioteek vir gevorderde kwantum-berekeningsmodel gebaseerde masjienleer op die Google Quantum Processor Sycamore-argitektuur wat in die volgende struktuur georganiseer is, wat omvattende video insluit didaktiese inhoud as verwysing vir hierdie EITC-sertifisering.

TensorFlow Quantum (TFQ) is 'n kwantummasjienleerbiblioteek vir vinnige prototipering van baster kwantum-klassieke ML-modelle. Navorsing in kwantumalgoritmes en -toepassings kan gebruik maak van Google se kwantumrekenaarraamwerke, alles binne TensorFlow.

TensorFlow Quantum fokus op kwantumdata en die bou van hibriede kwantum-klassieke modelle. Dit integreer kwantumrekenaaralgoritmes en logika wat ontwerp is in Cirq (kwantumprogrammeringsraamwerk gebaseer op die kwantumstroombaanmodel) en bied kwantumrekenaarprimitiewe wat verenigbaar is met bestaande TensorFlow API's, tesame met hoëprestasie-kwantumstroom-simulators. Lees meer in die TensorFlow Quantum witskrif.

Kwantumberekening is die gebruik van kwantumverskynsels soos superposisie en verstrengeling om berekeninge uit te voer. Rekenaars wat kwantumberekenings doen, staan ​​bekend as kwantumrekenaars. Daar word geglo dat kwantumrekenaars sekere rekenaarprobleme, soos heelgetal-faktorisering (wat onderlê aan RSA-kodering), aansienlik vinniger kan oplos as klassieke rekenaars. Die studie van kwantumrekenaar is 'n subveld van die kwantuminligtingkunde.

Kwantumberekening het begin in die vroeë 1980's, toe die natuurkundige Paul Benioff 'n kwantummeganiese model van die Turing-masjien voorgestel het. Richard Feynman en Yuri Manin het later voorgestel dat 'n kwantumrekenaar die potensiaal het om dinge te simuleer wat 'n klassieke rekenaar nie kan nie. In 1994 het Peter Shor 'n kwantumalgoritme ontwikkel om heelgetalle in berekening te bring wat die potensiaal het om RSA-geïnkripteerde kommunikasie te ontsyfer. Ondanks die voortslepende eksperimentele vordering sedert die laat negentigerjare, glo die meeste navorsers dat "foutverdraagsame kwantumrekenaars nog steeds 'n droom is." In onlangse jare het die belegging in kwantumrekenaarnavorsing in die openbare en private sektor toegeneem. Op 1990 Oktober 23 beweer Google AI, in vennootskap met die Amerikaanse Nasionale Lugvaart- en Ruimte-administrasie (NASA), 'n kwantumberekening te doen wat onhaalbaar is op enige klassieke rekenaar (sogenaamde kwantumoorheersingsresultaat).

Daar is verskillende modelle van kwantumrekenaars (of eerder kwantumrekenaarstelsels), insluitend die kwantumkringmodel, kwantumturing-masjien, adiabatiese kwantumrekenaar, eenrigting-kwantumrekenaar en verskillende kwantum-sellulêre outomate. Die mees gebruikte model is die kwantumbaan. Kwantumbane is gebaseer op die kwantumbit, of 'qubit', wat ietwat analoog is aan die bietjie in klassieke berekening. Qubits kan in 'n kwantumtoestand van 1 of 0 wees, of hulle kan in 'n superposisie van die 1 en 0-toestande wees. As kwbits egter gemeet word, is die resultaat van die meting altyd 'n 0 of 'n 1; Die waarskynlikheid van hierdie twee uitkomste hang af van die kwantumtoestand waarin die kwbits onmiddellik voor die meting was.

Die vordering in die rigting van die bou van 'n fisiese kwantumrekenaar fokus op tegnologieë soos transmone, ioonvalle en topologiese kwantumrekenaars, wat daarop gemik is om hoë gehalte kwbits te skep. Hierdie kwbits kan anders ontwerp word, afhangend van die rekenaarmodel van die volle kwantumrekenaar, of dit nou kwantumlogiese hekke, kwantumgloeiing of adiabatiese kwantumberekening is. Daar is tans 'n aantal belangrike hindernisse in die konstruksie van nuttige kwantumrekenaars. In die besonder is dit moeilik om die kwantumtoestande van qubits te handhaaf, aangesien dit ly aan kwantum-dekoherensie en getrouheid. Kwantumrekenaars benodig dus foutregstelling. Enige berekeningsprobleem wat deur 'n klassieke rekenaar opgelos kan word, kan ook deur 'n kwantumrekenaar opgelos word. Omgekeerd kan enige probleem wat deur 'n kwantumrekenaar opgelos kan word, ook deur 'n klassieke rekenaar opgelos word, ten minste in beginsel genoeg tyd gegee. Met ander woorde, kwantumrekenaars voldoen aan die Church-Turing-proefskrif. Alhoewel dit beteken dat kwantumrekenaars geen ekstra voordele bied bo klassieke rekenaars in terme van berekenbaarheid nie, het kwantumalgoritmes vir sekere probleme aansienlik laer tydkompleksiteit as ooreenstemmende bekende klassieke algoritmes. Dit is opvallend dat kwantumrekenaars glo sekere probleme wat geen klassieke rekenaar op enige moontlike tyd sou kon oplos, vinnig kon oplos nie - 'n prestasie wat bekend staan ​​as 'quantum supremacy'. Die studie van die kompleksiteit van die berekening van probleme met betrekking tot kwantumrekenaars staan ​​bekend as die kwantumkompleksiteitsteorie.

Google Sycamore is 'n kwantumverwerker wat geskep is deur die afdeling vir kunsmatige intelligensie van Google Inc. Dit bestaan ​​uit 53 qubits.

In 2019 het Sycamore binne 200 sekondes 'n taak voltooi wat volgens Google in 'n Nature-artikel 'n moderne superrekenaar 10,000 2.5 jaar sou neem om te voltooi. Google beweer dus dat hy kwantumoorheersing behaal het. Om die tyd wat 'n klassieke superrekenaar in beslag neem, te skat, het Google gedeeltes van die kwantumsimulasie op die Summit uitgevoer, die kragtigste klassieke rekenaar ter wêreld. Later het IBM 'n teenargument aangevoer en beweer dat die taak slegs XNUMX dae sou duur op 'n klassieke stelsel soos Summit. As die eise van Google gehandhaaf word, sal dit 'n eksponensiële sprong in die rekenaarkrag verteenwoordig.

In Augustus 2020 het kwantumingenieurs wat by Google gewerk het, die grootste chemiese simulasie op 'n kwantumrekenaar gerapporteer - 'n benadering van Hartree-Fock met Sycamore gekoppel aan 'n klassieke rekenaar wat die resultate ontleed om nuwe parameters vir die 12-qubit-stelsel te bied.

In Desember 2020 het die Chinese foton-gebaseerde Jiuzhang-verwerker, ontwikkel deur USTC, 'n verwerkingskrag van 76 qubits behaal en was dit 10 miljard keer vinniger as Sycamore, wat dit die tweede rekenaar maak wat die kwantumheerskappy behaal.

Die Quantum Artificial Intelligence Lab (ook bekend as die Quantum AI Lab of QuAIL) is 'n gesamentlike inisiatief van NASA, Universities Space Research Association en Google (spesifiek Google Research) met die doel om navorsing te doen oor hoe kwantumrekenaarwerk kan help met masjienleer. en ander moeilike rekenaarwetenskaplike probleme. Die laboratorium word aangebied in die NASA se Ames-navorsingsentrum.

Google Research het die Quantum AI Lab op 16 Mei 2013 in 'n blogboodskap aangekondig. Ten tye van die bekendstelling gebruik die Lab die mees gevorderde kommersiële kwantumrekenaar, D-Wave Two van D-Wave Systems.

Op 20 Mei 2013 is aangekondig dat mense kan aansoek doen om tyd op die D-Wave Two by die Lab te gebruik. Op 10 Oktober 2013 het Google 'n kort film uitgereik wat die huidige stand van die Quantum AI Lab beskryf. Op 18 Oktober 2013 het Google aangekondig dat hy kwantumfisika in Minecraft opgeneem het.

In Januarie 2014 het Google resultate gerapporteer wat die prestasie van die D-Wave Two in die laboratorium vergelyk met dié van klassieke rekenaars. Die resultate was dubbelsinnig en het hewige bespreking op die internet ontlok. Op 2 September 2014 is aangekondig dat die Quantum AI Lab, in vennootskap met UC Santa Barbara, 'n inisiatief sal loods om kwantuminligtingverwerkers te skep gebaseer op supergeleidende elektronika.

Op 23 Oktober 2019 het die Quantum AI Lab in 'n referaat aangekondig dat dit kwantumoorheersing bereik het.

Google AI Quantum bevorder die berekening van kwantum deur kwantumverwerkers en nuwe kwantumalgoritmes te ontwikkel om navorsers en ontwikkelaars teoretiese en praktiese probleme op te los.

Quantum computing word beskou as te help met die ontwikkeling van die innovasies van more, insluitend AI. Daarom spandeer Google belangrike hulpbronne vir die opbou van toegewyde kwantum-hardeware en sagteware.

Quantum computing is 'n nuwe paradigma wat 'n groot rol sal speel in die versnelling van take vir AI. Google beoog om navorsers en ontwikkelaars toegang tot open source raamwerke en rekenaarkrag te bied wat buite klassieke berekeningsvermoë kan funksioneer.

Die belangrikste fokusareas van Google AI Quantum is:

  • Supergeleidende qubit-verwerkers: Supergeleidende qubits met skyfgebaseerde skaalbare argitektuur wat op twee-kwbit-hekfout <0.5% gerig is.
  • Qubit-metrologie: Die vermindering van twee kwbit-verlies onder 0.2% is van kritieke belang vir foutkorreksie. Ons is besig met 'n eksperiment met kwantumheerskappy, om 'n kwantumstroombaan te steek wat buite die vermoëns van moderne klassieke rekenaars en algoritmes steek.
  • Kwantumsimulasie: Simulasie van fisiese stelsels is een van die mees verwagte toepassings van kwantumrekenaars. Ons fokus veral op kwantumalgoritmes vir die modellering van stelsels van interaksie tussen elektrone en toepassings in chemie en materiaalwetenskap.
  • Kwantumondersteunde optimalisering: Ons ontwikkel hibriede kwantum-klassieke oplossers vir benaderde optimalisering. Termiese spronge in klassieke algoritmes om energieversperrings te oorkom, kan verbeter word deur kwantumopdaterings op te roep. Ons stel veral belang in samehangende bevolkingsoordrag.
  • Kwantumneurale netwerke: Ons ontwikkel 'n raamwerk om 'n kwantumneurale netwerk op korttermynverwerkers te implementeer. Ons is geïnteresseerd in die begrip van die voordele wat die gevolg kan wees van die opwekking van massiewe superposisie-toestande tydens die werking van die netwerk.

Die belangrikste instrumente wat deur Google AI Quantum ontwikkel is, is open-source raamwerke wat spesifiek ontwerp is vir die ontwikkeling van nuwe kwantumalgoritmes om praktiese probleme op kort termyn te help oplos. Dit sluit in:

  • Cirq: 'n oopbron-kwantumraamwerk vir die bou en eksperimentering met NISQ-algoritmes met luidrugtige intermediêre skaal op kwantumverwerkers op kort termyn
  • OpenFermion: 'n open-source platform vir die vertaling van probleme in chemie en materiaalwetenskap in kwantumbane wat op bestaande platforms uitgevoer kan word

Google AI Quantum korttermyn-toepassings sluit in:

Kwantumsimulasie

Die ontwerp van nuwe materiale en die toeligting van komplekse fisika deur akkurate simulasies van chemie en kondensstofmodelle is van die mees belowende toepassings van kwantumrekenaars.

Foutversagtingstegnieke

Ons werk aan die ontwikkeling van metodes op pad na volledige kwantumfout-regstelling wat die vermoë het om geraas in huidige toestelle dramaties te verminder. Alhoewel volskaalse foutverdraagsame kwantumberekeninge aansienlike ontwikkelinge kan verg, het ons die kwantum-uitbreidingstegniek ontwikkel om te help met die gebruik van kwantumfoutkorrigering om die prestasie van toepassings op nabye toestelle te verbeter. Boonop vergemaklik hierdie tegnieke die toetsing van komplekse kwantumkodes op nabye toestelle. Ons dryf hierdie tegnieke aktief na nuwe gebiede en gebruik dit as 'n basis vir die ontwerp van korttermyn-eksperimente.

Kwantummasjienleer

Ons ontwikkel hibriede kwantaklassieke masjienleertegnieke op kwantumtoestelle op kort termyn. Ons bestudeer universele kwantumkringleer vir klassifikasie en groepering van kwantum- en klassieke data. Ons is ook geïnteresseerd in generatiewe en diskriminerende kwantumneurale netwerke, wat gebruik kan word as kwantumherhalers en toestandsuiweringseenhede binne kwantumkommunikasienetwerke, of om ander kwantumbane te verifieer.

Kwantumoptimalisering

Diskrete optimalisasies in lugvaart-, motor- en ander bedrywe kan baat vind by baster kwantumklassieke optimalisering, byvoorbeeld gesimuleerde uitgloeiing, kwantumondersteunde optimaliseringsalgoritme (QAOA) en kwantumverbeterde bevolkingsoordrag kan van nut wees met die verwerkers van vandag.

Om jouself in besonderhede te vergewis van die sertifiseringskurrikulum, kan jy die tabel hieronder uitbrei en ontleed.

Die EITC/AI/TFQML TensorFlow kwantummasjienleer-sertifiseringskurrikulum verwys na oop-toegang didaktiese materiaal in 'n videovorm. Leerproses word verdeel in 'n stap-vir-stap-struktuur (programme -> lesse -> onderwerpe) wat relevante kurrikulumdele dek. Onbeperkte konsultasie met domeinkundiges word ook verskaf.
Gaan na vir besonderhede oor die Sertifiseringsprosedure Hoe dit werk.

Lees meer
Geen kommentaar

EITC/CP/PPF Python Programmering Fundamentals

Vrydag, 05 Februarie 2021 by admin

EITC/CP/PPF Python Programming Fundamentals is die Europese IT-sertifiseringsprogram oor die grondbeginsels van programmering in Python-taal.

Die kurrikulum van die EITC/CP/PPF Python Programming Fundamentals fokus op praktiese vaardighede Python-programmering wat binne die volgende struktuur georganiseer is, en omvattende videodidaktiese inhoud bevat as verwysing vir hierdie EITC-sertifisering.

Python is 'n geïnterpreteerde, hoë vlak en algemene programmeertaal. Python se ontwerpfilosofie beklemtoon die leesbaarheid van die kode deur die noemenswaardige gebruik van 'n groot ruimte. Sy taalkonstruksies en objekgerigte benadering is daarop gemik om programmeerders te help om duidelike, logiese kode vir klein en grootskaalse projekte te skryf. Vanweë die uitgebreide standaardbiblioteek word Python dikwels beskryf as 'n “batterye ingesluit” -taal. Python word algemeen gebruik in kunsmatige intelligensieprojekte en masjienleerprojekte met behulp van biblioteke soos TensorFlow, Keras, Pytorch en Scikit-leer.

Python is dinamies getik (voer tydens algemene gebruik baie algemene programmeringsgedrag uit wat statiese programmeertale tydens samestelling uitvoer) en vullis versamel (met outomatiese geheuebestuur). Dit ondersteun verskeie programmeringsparadigmas, insluitend gestruktureerde (veral prosedurele), objekgerigte en funksionele programmering. Dit is in die laat 1980's geskep, en die eerste keer vrygestel in 1991 deur Guido van Rossum as 'n opvolger van die ABC-programmeertaal. Python 2.0, wat in 2000 vrygestel is, het nuwe funksies bekendgestel, soos 'n lysbegrip, en 'n vullisverwyderingstelsel met verwysingtelling, en is in 2.7 met weergawe 2020 gestaak. Python 3.0, wat in 2008 vrygestel is, was 'n belangrike hersiening van die taal wat nie heeltemal agtertoe-versoenbaar nie en baie Python 2-kode loop nie onveranderd op Python 3. nie. Met Python 2 se einde van die lewe (en pip het die ondersteuning in 2021 laat val), word slegs Python 3.6.x en later ondersteun, met nog ouer weergawes ondersteun byvoorbeeld Windows 7 (en ou installeerders nie beperk tot 64-bis Windows nie).

Python-tolke word ondersteun vir hoofstroom-bedryfstelsels en is beskikbaar vir 'n paar meer (en in die verlede baie meer ondersteun). 'N Globale gemeenskap van programmeerders ontwikkel en onderhou CPython, 'n gratis en open source-verwysingsimplementering. 'N Organisasie sonder winsbejag, die Python Software Foundation, bestuur en stuur hulpbronne vir die ontwikkeling van Python en CPython.

Met ingang van Januarie 2021 beklee Python die derde plek in TIOBE se indeks van gewildste programmeertale, agter C en Java, nadat hy voorheen die tweede plek behaal het en die toekenning vir die gewildste wins vir 2020 behaal het. In 2007, 2010 is dit die programmeertaal van die jaar gekies. , en 2018.

In 'n empiriese studie is bevind dat skripttale, soos Python, produktiewer is as konvensionele tale, soos C en Java, vir programmeringsprobleme met betrekking tot snaarmanipulasie en soek in 'n woordeboek, en het vasgestel dat geheueverbruik dikwels 'beter is as Java en nie baie erger as C of C ++ ”. Groot organisasies wat Python gebruik, is onder andere Wikipedia, Google, Yahoo !, CERN, NASA, Facebook, Amazon, Instagram.

Behalwe vir kunsmatige intelligensie-toepassings, word Python, as 'n skriptaal met modulêre argitektuur, eenvoudige sintaksis en ryk teksverwerkingsinstrumente, dikwels gebruik vir die verwerking van natuurlike tale.

Om jouself in besonderhede te vergewis van die sertifiseringskurrikulum, kan jy die tabel hieronder uitbrei en ontleed.

Die EITC/CP/PPF Python Programming Fundamentals Certification Curriculum verwys na oop-toegang didaktiese materiaal in 'n videovorm deur Harrison Kinsley. Leerproses word verdeel in 'n stap-vir-stap-struktuur (programme -> lesse -> onderwerpe) wat relevante kurrikulumdele dek. Onbeperkte konsultasie met domeinkundiges word ook verskaf.
Gaan na vir besonderhede oor die Sertifiseringsprosedure Hoe dit werk.

Lees meer
Geen kommentaar

EITC/AI/GVAPI Google Vision API

Vrydag, 05 Februarie 2021 by admin

EITC/AI/GVAPI Google Vision API is die Europese IT-sertifiseringsprogram vir die gebruik van Google Cloud se kunsmatige intelligensie Vision API vir vooraf opgeleide beeldbegrip.

Die leerplan van die EITC/AI/GVAPI Google Vision API fokus op praktiese vaardighede in die gebruik van outomatiese masjienleer-beeldanalise Google Vision API (toepassingsprogrammeringskoppelvlak) -dienste wat binne die volgende struktuur georganiseer is, en omvattende videodidaktiese inhoud as verwysing vir hierdie EITC-sertifisering. .

Google Vision API is 'n beeldontledingsdiens van 'n Google Cloud Platform wat gebaseer is op vooraf opgeleide en voortdurende bevordering van masjienleer met gesofistikeerde implementasies van diep leer. Dit is een van die toonaangewende standaarde vir akkuraatheid vir die begrip van kunsmatige intelligensie. Die EITC/AI/GVAPI Google Vision API waarna verwys word, fokus op die werk met visie AI in Python deur middel van Google Cloud se Vision API, wat 'n kragtige AI-wolkdiens bied wat vooraf opgeleide en steeds vorderende masjienleermodelle bied. Met behulp van die Vision AI kan 'n mens take verrig in die begrip van visuele data, soos om etikette aan afbeeldings toe te ken om groot beelde-databasisse te organiseer, om aanbevole gewas-hoekpunte te kry, om beroemde landskappe of plekke op te spoor, tekste te onttrek en vele ander dinge.

Google Cloud bied twee rekenaarvisiedienste (gesamentlik Vision AI genoem) wat masjienleer gebruik om beelde en video's met 'n hoë voorspellingsakkuraatheid te verstaan, naamlik AutoML Vision en die Vision API. Die AutoML Vision automatiseer opleiding van die aangepaste masjienleermodelle. Dit maak die oplaai van beelde moontlik en oefen persoonlike beeldmodelle met 'n gebruiksvriendelike grafiese koppelvlak; die modelle te optimaliseer vir akkuraatheid, vertraging en grootte en uitvoer na enige toepassing in die wolk, of na 'n verskeidenheid toestelle aan die rand. Aan die ander kant bied Google Cloud se Vision API kragtige vooraf opgeleide masjienleermodelle deur middel van REST (Representational State Transfer) en RPC (Remote Procedure Call) API's, wat etikette aan beelde toewys en dit vinnig in miljoene vooraf gedefinieerde kategorieë klassifiseer. Bespeur voorwerpe en gesigte, lees gedrukte en handgeskrewe teks en bou waardevolle metadata in beeldkatalogusse. U kan dus AutoML Vision gebruik om insigte uit beelde in die wolk of aan die rand te verkry, of die vooraf opgeleide Vision API-modelle te gebruik om emosie op te spoor, teks uit visuele data en meer te verstaan.

Met Google Cloud se Vision API is dit moontlik om:

  • Bespeur voorwerpe: ontdek voorwerpe, waar dit is en hoeveel.
  • Aktiveer visie-produksoektog: vergelyk foto's met prente in u produkkatalogus en lewer 'n lys van soortgelyke items op die ranglys.
  • Bespeur gedrukte en handgeskrewe teks: gebruik OCR en identifiseer taal outomaties.
  • Gesigte opspoor: Gesigte en gesigs eienskappe opspoor. (Gesigsherkenning word nie ondersteun nie.)
  • Identifiseer gewilde plekke en produklogos: Identifiseer bekende landmerke en produklogo's outomaties.
  • Ken algemene beeldkenmerke toe: ontdek algemene eienskappe en toepaslike gewaswenke.
  • Ontdek web-entiteite en -bladsye: vind nuusgebeurtenisse, logo's en soortgelyke beelde op die internet.
  • Matige inhoud: ontdek eksplisiete inhoud (volwasse, gewelddadig, ens.) Binne beelde.
  • Bekendheid van bekende persoonlikhede: Identifiseer gesigte van beroemdes in beelde (beperkte toegang, sien dokumentasie.)
  • Klassifiseer beelde met voorafbepaalde etikette: vooraf opgeleide modelle gebruik groot biblioteke van vooraf gedefinieerde etikette.
  • Gebruik Google se data-etiketteringsdiens: Google kan help om beelde, video's en teks aan te teken.
  • Gebruik API's: gebruik REST- en RPC-API's.

Die moontlike gebruiksgevalle vir Vision API is ontelbaar.

Deur byvoorbeeld Vision API te gebruik, kan u 'n visie-produksoektog implementeer om u klante in staat te stel om produkte van belang in beelde te vind en produkte katalogusse visueel te deursoek (beeldsoektog, soortgelyke produkte outomaties aangewys, ens.)

In die video hierbo word verduidelik hoe Google Cloud AutoML Vision AI gebruik om beelde te ontleed.

'N Tweeling AI-stelsel, nou verwant aan die vooraf opgeleide en voortdurend opgegradeerde Google Vision API, is Google AutoML Vision wat ondernemings in staat stel om hul eie masjienleermodelle en persoonlike opleiding te gebruik vir kunsmatige intelligensie in visie-analise en -begrip. Dit is deel van Google Cloud se masjienleerprodukte en is ontwerp om ontwikkelaars met beperkte kundigheid oor masjienleer te help om persoonlike visiemodelle op te lei vir hul spesifieke gebruiksgevalle. As u toegang benodig tot die algemene vooraf opgeleide model, moet AI-ontwikkelaars die Google Vision API gebruik.

Om jouself in besonderhede te vergewis van die sertifiseringskurrikulum, kan jy die tabel hieronder uitbrei en ontleed.

Die EITC/AI/GVAPI Google Vision API-sertifiseringskurrikulum verwys na oop-toegang didaktiese materiaal in 'n videovorm. Leerproses word verdeel in 'n stap-vir-stap-struktuur (programme -> lesse -> onderwerpe) wat relevante kurrikulumdele dek. Onbeperkte konsultasie met domeinkundiges word ook verskaf.
Gaan na vir besonderhede oor die Sertifiseringsprosedure Hoe dit werk.

Lees meer
Geen kommentaar

EITC/AI/DLTF Deep Learning met TensorFlow

Woensdag 03 Februarie 2021 by admin

EITC/AI/DLTF Deep Learning with TensorFlow is die Europese IT-sertifiseringsprogram oor die grondbeginsels van die programmering van diep leer in Python met Google TensorFlow-masjienleerbiblioteek.

Die kurrikulum van die EITC/AI/DLTF Deep Learning with TensorFlow fokus op praktiese vaardighede in diep leer Python-programmering met Google TensorFlow-biblioteek wat binne die volgende struktuur georganiseer is, wat omvattende videodidaktiese inhoud bevat as verwysing vir hierdie EITC-sertifisering.

Diep leer (ook bekend as diep gestruktureerde leer) is deel van 'n breër familie van masjienleermetodes gebaseer op kunsmatige neurale netwerke met voorstellingsleer. Leer kan onder toesig, semi-toesig of sonder toesig wees. Diep leer-argitekture soos diepe neurale netwerke, diepe geloofsnetwerke, herhalende neurale netwerke en konvolusionele neurale netwerke is toegepas op velde, insluitend rekenaarvisie, masjienvisie, spraakherkenning, verwerking van natuurlike taal, klankherkenning, sosiale netwerkfiltering, masjienvertaling, bioinformatika geneesmiddelontwerp, mediese beeldontleding, materiaalinspeksie en bordspeletjieprogramme, waar dit resultate opgelewer het wat vergelykbaar is met en in sommige gevalle beter is as menslike kundige prestasies.

Kunsmatige neurale netwerke (ANN's) is geïnspireer deur inligtingverwerking en verspreide kommunikasieknope in biologiese stelsels. Die byvoeglike naamwoord "diep" in diep leer verwys na die gebruik van verskeie lae in die netwerk. Vroeë werk het getoon dat 'n lineêre perseptron nie 'n universele klassifiseerder kan wees nie, en dat 'n netwerk met 'n nie-polinoom-aktiveringsfunksie met een verborge laag van onbegrensde breedte daarenteen kan wees. Diep leer is 'n moderne variasie wat te make het met 'n onbeperkte aantal lae van begrensde grootte, wat praktiese toepassing en optimale implementering moontlik maak, terwyl die teoretiese universaliteit onder sagte omstandighede behoue ​​bly. In diepgaande leer kan die lae ook heterogeen wees en wyd afwyk van biologies ingeligte konneksionistiese modelle ter wille van doeltreffendheid, opleibaarheid en verstaanbaarheid, waarvandaan die 'gestruktureerde' deel is.

Python is 'n geïnterpreteerde, hoë vlak en algemene programmeertaal. Python se ontwerpfilosofie beklemtoon die leesbaarheid van die kode deur die noemenswaardige gebruik van 'n groot ruimte. Sy taalkonstruksies en objekgerigte benadering is daarop gemik om programmeerders te help om duidelike, logiese kode vir klein en grootskaalse projekte te skryf. Vanweë die uitgebreide standaardbiblioteek word Python dikwels beskryf as 'n “batterye ingesluit” -taal. Python word algemeen gebruik in kunsmatige intelligensieprojekte en masjienleerprojekte met behulp van biblioteke soos TensorFlow, Keras, Pytorch en Scikit-leer.

Python is dinamies getik (voer tydens algemene gebruik baie algemene programmeringsgedrag uit wat statiese programmeertale tydens samestelling uitvoer) en vullis versamel (met outomatiese geheuebestuur). Dit ondersteun verskeie programmeringsparadigmas, insluitend gestruktureerde (veral prosedurele), objekgerigte en funksionele programmering. Dit is in die laat 1980's geskep, en die eerste keer vrygestel in 1991 deur Guido van Rossum as 'n opvolger van die ABC-programmeertaal. Python 2.0, wat in 2000 vrygestel is, het nuwe funksies bekendgestel, soos 'n lysbegrip, en 'n vullisverwyderingstelsel met verwysingtelling, en is in 2.7 met weergawe 2020 gestaak. Python 3.0, wat in 2008 vrygestel is, was 'n belangrike hersiening van die taal wat nie heeltemal agtertoe-versoenbaar nie en baie Python 2-kode loop nie onveranderd op Python 3. nie. Met Python 2 se einde van die lewe (en pip het die ondersteuning in 2021 laat val), word slegs Python 3.6.x en later ondersteun, met nog ouer weergawes ondersteun byvoorbeeld Windows 7 (en ou installeerders nie beperk tot 64-bis Windows nie).

Python-tolke word ondersteun vir hoofstroom-bedryfstelsels en is beskikbaar vir 'n paar meer (en in die verlede baie meer ondersteun). 'N Globale gemeenskap van programmeerders ontwikkel en onderhou CPython, 'n gratis en open source-verwysingsimplementering. 'N Organisasie sonder winsbejag, die Python Software Foundation, bestuur en stuur hulpbronne vir die ontwikkeling van Python en CPython.

Met ingang van Januarie 2021 beklee Python die derde plek in TIOBE se indeks van gewildste programmeertale, agter C en Java, nadat hy voorheen die tweede plek behaal het en die toekenning vir die gewildste wins vir 2020 behaal het. In 2007, 2010 is dit die programmeertaal van die jaar gekies. , en 2018.

In 'n empiriese studie is bevind dat skripttale, soos Python, produktiewer is as konvensionele tale, soos C en Java, vir programmeringsprobleme met betrekking tot snaarmanipulasie en soek in 'n woordeboek, en het vasgestel dat geheueverbruik dikwels 'beter is as Java en nie baie erger as C of C ++ ”. Groot organisasies wat Python gebruik, is onder andere Wikipedia, Google, Yahoo !, CERN, NASA, Facebook, Amazon, Instagram.

Behalwe vir kunsmatige intelligensie-toepassings, word Python, as 'n skriptaal met modulêre argitektuur, eenvoudige sintaksis en ryk teksverwerkingsinstrumente, dikwels gebruik vir die verwerking van natuurlike tale.

TensorFlow is 'n gratis en oopbron sagteware-biblioteek vir masjienleer. Dit kan in verskillende take gebruik word, maar fokus veral op opleiding en afleiding van diep neurale netwerke. Dit is 'n simboliese wiskundebiblioteek wat gebaseer is op datavloei en onderskeibare programmering. Dit word gebruik vir sowel navorsing as produksie by Google.

TensorFlow is ontwikkel deur die Google Brain-span vir interne Google-gebruik. Dit is in 2.0 vrygestel onder die Apache License 2015.

Vanaf 2011 het Google Brain DistBelief gebou as 'n eie masjienleerstelsel gebaseer op neurale netwerke met diep leer. Die gebruik daarvan het vinnig toegeneem in verskillende Alfabet-ondernemings in sowel navorsings- as kommersiële toepassings. Google het verskeie rekenaarwetenskaplikes, waaronder Jeff Dean, aangewys om die kodebasis van DistBelief te vereenvoudig in 'n vinniger, meer robuuste biblioteek vir toepassingsgraad, wat TensorFlow geword het. In 2009 het die span, onder leiding van Geoffrey Hinton, algemene backpropagation en ander verbeterings geïmplementeer wat die opwekking van neurale netwerke met 'n aansienlik hoër akkuraatheid moontlik gemaak het, byvoorbeeld 'n vermindering van 25% in spraakherkenning met XNUMX%.

TensorFlow is die tweede generasie stelsel van Google Brain. Weergawe 1.0.0 is op 11 Februarie 2017 vrygestel. Alhoewel die verwysingsimplementering op enkele toestelle uitgevoer word, kan TensorFlow op verskeie SVE's en GPU's werk (met opsionele CUDA- en SYCL-uitbreidings vir algemene rekenaars op grafiese verwerkingseenhede). TensorFlow is beskikbaar op 64-bis Linux-, macOS-, Windows- en mobiele rekenaarplatforms, insluitend Android en iOS. Die buigsame argitektuur maak dit maklik om berekenings op verskillende platforms (CPU's, GPU's, TPU's) te implementeer, en van lessenaars tot bedienersgroepe tot mobiele en randtoestelle. TensorFlow-berekeninge word uitgedruk as statiewe datavloeigrafieke. Die naam TensorFlow is afgelei van die bewerkings wat sulke neurale netwerke op multidimensionele data-skikkings uitvoer, wat tensors genoem word. Tydens die Google I/O-konferensie in Junie 2016 het Jeff Dean gesê dat 1,500 bewaarplekke op GitHub TensorFlow genoem het, waarvan slegs 5 van Google afkomstig was. In Desember 2017 stel ontwikkelaars van Google, Cisco, RedHat, CoreOS en CaiCloud Kubeflow tydens 'n konferensie bekend. Met Kubeflow kan TensorFlow op Kubernetes bedryf en ontplooi word. In Maart 2018 het Google TensorFlow.js weergawe 1.0 vir masjienleer in JavaScript aangekondig. In Januarie 2019 het Google TensorFlow 2.0 aangekondig. Dit het amptelik beskikbaar geword in September 2019. In Mei 2019 het Google TensorFlow Graphics aangekondig vir diep leer in rekenaargrafika.

Om jouself in besonderhede te vergewis van die sertifiseringskurrikulum, kan jy die tabel hieronder uitbrei en ontleed.

Die EITC/AI/DLTF Deep Learning with TensorFlow Certification Curriculum verwys na oop-toegang didaktiese materiaal in 'n videovorm deur Harrison Kinsley. Leerproses word verdeel in 'n stap-vir-stap-struktuur (programme -> lesse -> onderwerpe) wat relevante kurrikulumdele dek. Onbeperkte konsultasie met domeinkundiges word ook verskaf.
Gaan na vir besonderhede oor die Sertifiseringsprosedure Hoe dit werk.

Lees meer
Geen kommentaar

EITC/AI/DLPP Deep Learning met Python en PyTorch

Woensdag 03 Februarie 2021 by admin

EITC/AI/DLPP Diep leer met Python en PyTorch is die Europese IT-sertifiseringsprogram op die basis van programmering van diep leer in Python met die PyTorch-masjienleerbiblioteek.

Die kurrikulum van die EITC/AI/DLPP Deep Learning with Python en PyTorch fokus op praktiese vaardighede in diep leer Python-programmering met PyTorch-biblioteek wat binne die volgende struktuur georganiseer is, wat omvattende videodidaktiese inhoud bevat as verwysing vir hierdie EITC-sertifisering.

Diep leer (ook bekend as diep gestruktureerde leer) is deel van 'n breër familie van masjienleermetodes gebaseer op kunsmatige neurale netwerke met voorstellingsleer. Leer kan onder toesig, semi-toesig of sonder toesig wees. Diep leer-argitekture soos diepe neurale netwerke, diepe geloofsnetwerke, herhalende neurale netwerke en konvolusionele neurale netwerke is toegepas op velde, insluitend rekenaarvisie, masjienvisie, spraakherkenning, verwerking van natuurlike taal, klankherkenning, sosiale netwerkfiltering, masjienvertaling, bioinformatika geneesmiddelontwerp, mediese beeldontleding, materiaalinspeksie en bordspeletjieprogramme, waar dit resultate opgelewer het wat vergelykbaar is met en in sommige gevalle beter is as menslike kundige prestasies.

Kunsmatige neurale netwerke (ANN's) is geïnspireer deur inligtingverwerking en verspreide kommunikasieknope in biologiese stelsels. Die byvoeglike naamwoord "diep" in diep leer verwys na die gebruik van verskeie lae in die netwerk. Vroeë werk het getoon dat 'n lineêre perseptron nie 'n universele klassifiseerder kan wees nie, en dat 'n netwerk met 'n nie-polinoom-aktiveringsfunksie met een verborge laag van onbegrensde breedte daarenteen kan wees. Diep leer is 'n moderne variasie wat te make het met 'n onbeperkte aantal lae van begrensde grootte, wat praktiese toepassing en optimale implementering moontlik maak, terwyl die teoretiese universaliteit onder sagte omstandighede behoue ​​bly. In diepgaande leer kan die lae ook heterogeen wees en wyd afwyk van biologies ingeligte konneksionistiese modelle ter wille van doeltreffendheid, opleibaarheid en verstaanbaarheid, waarvandaan die 'gestruktureerde' deel is.

Python is 'n geïnterpreteerde, hoë vlak en algemene programmeertaal. Python se ontwerpfilosofie beklemtoon die leesbaarheid van die kode deur die noemenswaardige gebruik van 'n groot ruimte. Sy taalkonstruksies en objekgerigte benadering is daarop gemik om programmeerders te help om duidelike, logiese kode vir klein en grootskaalse projekte te skryf. Vanweë die uitgebreide standaardbiblioteek word Python dikwels beskryf as 'n “batterye ingesluit” -taal. Python word algemeen gebruik in kunsmatige intelligensieprojekte en masjienleerprojekte met behulp van biblioteke soos TensorFlow, Keras, Pytorch en Scikit-leer.

Python is dinamies getik (voer tydens algemene gebruik baie algemene programmeringsgedrag uit wat statiese programmeertale tydens samestelling uitvoer) en vullis versamel (met outomatiese geheuebestuur). Dit ondersteun verskeie programmeringsparadigmas, insluitend gestruktureerde (veral prosedurele), objekgerigte en funksionele programmering. Dit is in die laat 1980's geskep, en die eerste keer vrygestel in 1991 deur Guido van Rossum as 'n opvolger van die ABC-programmeertaal. Python 2.0, wat in 2000 vrygestel is, het nuwe funksies bekendgestel, soos 'n lysbegrip, en 'n vullisverwyderingstelsel met verwysingtelling, en is in 2.7 met weergawe 2020 gestaak. Python 3.0, wat in 2008 vrygestel is, was 'n belangrike hersiening van die taal wat nie heeltemal agtertoe-versoenbaar nie en baie Python 2-kode loop nie onveranderd op Python 3. nie. Met Python 2 se einde van die lewe (en pip het die ondersteuning in 2021 laat val), word slegs Python 3.6.x en later ondersteun, met nog ouer weergawes ondersteun byvoorbeeld Windows 7 (en ou installeerders nie beperk tot 64-bis Windows nie).

Python-tolke word ondersteun vir hoofstroom-bedryfstelsels en is beskikbaar vir 'n paar meer (en in die verlede baie meer ondersteun). 'N Globale gemeenskap van programmeerders ontwikkel en onderhou CPython, 'n gratis en open source-verwysingsimplementering. 'N Organisasie sonder winsbejag, die Python Software Foundation, bestuur en stuur hulpbronne vir die ontwikkeling van Python en CPython.

Met ingang van Januarie 2021 beklee Python die derde plek in TIOBE se indeks van gewildste programmeertale, agter C en Java, nadat hy voorheen die tweede plek behaal het en die toekenning vir die gewildste wins vir 2020 behaal het. In 2007, 2010 is dit die programmeertaal van die jaar gekies. , en 2018.

In 'n empiriese studie is bevind dat skripttale, soos Python, produktiewer is as konvensionele tale, soos C en Java, vir programmeringsprobleme met betrekking tot snaarmanipulasie en soek in 'n woordeboek, en het vasgestel dat geheueverbruik dikwels 'beter is as Java en nie baie erger as C of C ++ ”. Groot organisasies wat Python gebruik, is onder andere Wikipedia, Google, Yahoo !, CERN, NASA, Facebook, Amazon, Instagram.

Behalwe vir kunsmatige intelligensie-toepassings, word Python, as 'n skriptaal met modulêre argitektuur, eenvoudige sintaksis en ryk teksverwerkingsinstrumente, dikwels gebruik vir die verwerking van natuurlike tale.

PyTorch is 'n oopbron-masjienleerbiblioteek gebaseer op die Torch-biblioteek, wat gebruik word vir toepassings soos rekenaarvisie en natuurlike taalverwerking, hoofsaaklik ontwikkel deur Facebook se AI Research lab (FAIR). Dit is gratis en oopbronsagteware wat onder die Gewysigde BSD-lisensie vrygestel word. Alhoewel die Python-koppelvlak meer gepoleer is en die primêre fokus van ontwikkeling is, het PyTorch ook 'n C ++ -koppelvlak. 'N Aantal stukke Deep Learning-sagteware is bo-op PyTorch gebou, waaronder Tesla Autopilot, Uber's Pyro, HuggingFace's Transformers, PyTorch Lightning en Catalyst.

PyTorch bied twee funksies op hoë vlak:

  • Tensorberekening (soos NumPy) met sterk versnelling via grafiese verwerkingseenhede (GPU)
  • Diep neurale netwerke gebou op 'n bandgebaseerde outomatiese (berekenings) differensiasie-stelsel

Facebook bedryf beide PyTorch en Convolutional Architecture for Fast Feature Embedding (Caffe2), maar modelle wat deur die twee raamwerke gedefinieer word, was onderling onversoenbaar. Die Open Neural Network Exchange (ONNX) -projek is in September 2017 deur Facebook en Microsoft geskep vir die omskakeling van modelle tussen raamwerke. Caffe2 is einde Maart 2018 in PyTorch saamgevoeg.

PyTorch definieer 'n klas genaamd Tensor (fakkel. Tensor) om homogene multidimensionele reghoekige skikkings van getalle op te slaan en te werk. PyTorch Tensors is soortgelyk aan NumPy Arrays, maar kan ook op 'n CUDA-geskikte Nvidia GPU gebruik word. PyTorch ondersteun verskillende subtipes Tensors.

Daar is min belangrike modules vir Pytorch. Dit sluit in:

  • Autograd-module: PyTorch gebruik 'n metode genaamd outomatiese differensiasie. 'N Optekenaar teken aan wat bewerkings uitgevoer het, en speel dit dan agteruit om die gradiënte te bereken. Hierdie metode is veral kragtig wanneer u neurale netwerke bou om tyd in een tyd te bespaar deur die differensiasie van die parameters by die voorwaartse pas te bereken.
  • Optim-module: torch.optim is 'n module wat verskillende optimaliseringsalgoritmes implementeer wat gebruik word vir die bou van neurale netwerke. Die meeste van die algemeen gebruikte metodes word al ondersteun, en dit is dus nie nodig om dit van nuuts af te bou nie.
  • nn module: PyTorch autograd maak dit maklik om berekeningsgrafieke te definieer en gradiënte te neem, maar rou autograd kan 'n bietjie te laag wees om komplekse neurale netwerke te definieer. Dit is waar die nn-module kan help.

Om jouself in besonderhede te vergewis van die sertifiseringskurrikulum, kan jy die tabel hieronder uitbrei en ontleed.

Die EITC/AI/DLPP Deep Learning with Python and PyTorch Certification Curriculum verwys na oop-toegang didaktiese materiaal in 'n videovorm deur Harrison Kinsley. Leerproses word verdeel in 'n stap-vir-stap-struktuur (programme -> lesse -> onderwerpe) wat relevante kurrikulumdele dek. Onbeperkte konsultasie met domeinkundiges word ook verskaf.
Gaan na vir besonderhede oor die Sertifiseringsprosedure Hoe dit werk.

Lees meer
Geen kommentaar

EITC/AI/DLPTFK Deep Learning met Python, TensorFlow en Keras

Dinsdag, 02 Februarie 2021 by admin

EITC/AI/DLPTFK Diep leer met Python, TensorFlow en Keras is die Europese IT-sertifiseringsprogram oor die grondbeginsels van die programmering van diep leer in Python met masjienleerbiblioteke TensorFlow en Keras.

Die kurrikulum van die EITC/AI/DLPTFK Deep Learning with Python, TensorFlow en Keras fokus op praktiese vaardighede in deep learning Python-programmering met TensorFlow en Keras biblioteke wat binne die volgende struktuur georganiseer is, en omvattende videodidaktiese inhoud bevat as verwysing vir hierdie EITC-sertifisering.

Diep leer (ook bekend as diep gestruktureerde leer) is deel van 'n breër familie van masjienleermetodes gebaseer op kunsmatige neurale netwerke met voorstellingsleer. Leer kan onder toesig, semi-toesig of sonder toesig wees. Diep leer-argitekture soos diepe neurale netwerke, diepe geloofsnetwerke, herhalende neurale netwerke en konvolusionele neurale netwerke is toegepas op velde, insluitend rekenaarvisie, masjienvisie, spraakherkenning, verwerking van natuurlike taal, klankherkenning, sosiale netwerkfiltering, masjienvertaling, bioinformatika geneesmiddelontwerp, mediese beeldontleding, materiaalinspeksie en bordspeletjieprogramme, waar dit resultate opgelewer het wat vergelykbaar is met en in sommige gevalle beter is as menslike kundige prestasies.

Kunsmatige neurale netwerke (ANN's) is geïnspireer deur inligtingverwerking en verspreide kommunikasieknope in biologiese stelsels. Die byvoeglike naamwoord "diep" in diep leer verwys na die gebruik van verskeie lae in die netwerk. Vroeë werk het getoon dat 'n lineêre perseptron nie 'n universele klassifiseerder kan wees nie, en dat 'n netwerk met 'n nie-polinoom-aktiveringsfunksie met een verborge laag van onbegrensde breedte daarenteen kan wees. Diep leer is 'n moderne variasie wat te make het met 'n onbeperkte aantal lae van begrensde grootte, wat praktiese toepassing en optimale implementering moontlik maak, terwyl die teoretiese universaliteit onder sagte omstandighede behoue ​​bly. In diepgaande leer kan die lae ook heterogeen wees en wyd afwyk van biologies ingeligte konneksionistiese modelle ter wille van doeltreffendheid, opleibaarheid en verstaanbaarheid, waarvandaan die 'gestruktureerde' deel is.

Python is 'n geïnterpreteerde, hoë vlak en algemene programmeertaal. Python se ontwerpfilosofie beklemtoon die leesbaarheid van die kode deur die noemenswaardige gebruik van 'n groot ruimte. Sy taalkonstruksies en objekgerigte benadering is daarop gemik om programmeerders te help om duidelike, logiese kode vir klein en grootskaalse projekte te skryf. Vanweë die uitgebreide standaardbiblioteek word Python dikwels beskryf as 'n “batterye ingesluit” -taal. Python word algemeen gebruik in kunsmatige intelligensieprojekte en masjienleerprojekte met behulp van biblioteke soos TensorFlow, Keras, Pytorch en Scikit-leer.

Python is dinamies getik (voer tydens algemene gebruik baie algemene programmeringsgedrag uit wat statiese programmeertale tydens samestelling uitvoer) en vullis versamel (met outomatiese geheuebestuur). Dit ondersteun verskeie programmeringsparadigmas, insluitend gestruktureerde (veral prosedurele), objekgerigte en funksionele programmering. Dit is in die laat 1980's geskep, en die eerste keer vrygestel in 1991 deur Guido van Rossum as 'n opvolger van die ABC-programmeertaal. Python 2.0, wat in 2000 vrygestel is, het nuwe funksies bekendgestel, soos 'n lysbegrip, en 'n vullisverwyderingstelsel met verwysingtelling, en is in 2.7 met weergawe 2020 gestaak. Python 3.0, wat in 2008 vrygestel is, was 'n belangrike hersiening van die taal wat nie heeltemal agtertoe-versoenbaar nie en baie Python 2-kode loop nie onveranderd op Python 3. nie. Met Python 2 se einde van die lewe (en pip het die ondersteuning in 2021 laat val), word slegs Python 3.6.x en later ondersteun, met nog ouer weergawes ondersteun byvoorbeeld Windows 7 (en ou installeerders nie beperk tot 64-bis Windows nie).

Python-tolke word ondersteun vir hoofstroom-bedryfstelsels en is beskikbaar vir 'n paar meer (en in die verlede baie meer ondersteun). 'N Globale gemeenskap van programmeerders ontwikkel en onderhou CPython, 'n gratis en open source-verwysingsimplementering. 'N Organisasie sonder winsbejag, die Python Software Foundation, bestuur en stuur hulpbronne vir die ontwikkeling van Python en CPython.

Met ingang van Januarie 2021 beklee Python die derde plek in TIOBE se indeks van gewildste programmeertale, agter C en Java, nadat hy voorheen die tweede plek behaal het en die toekenning vir die gewildste wins vir 2020 behaal het. In 2007, 2010 is dit die programmeertaal van die jaar gekies. , en 2018.

In 'n empiriese studie is bevind dat skripttale, soos Python, produktiewer is as konvensionele tale, soos C en Java, vir programmeringsprobleme met betrekking tot snaarmanipulasie en soek in 'n woordeboek, en het vasgestel dat geheueverbruik dikwels 'beter is as Java en nie baie erger as C of C ++ ”. Groot organisasies wat Python gebruik, is onder andere Wikipedia, Google, Yahoo !, CERN, NASA, Facebook, Amazon, Instagram.

Behalwe vir kunsmatige intelligensie-toepassings, word Python, as 'n skriptaal met modulêre argitektuur, eenvoudige sintaksis en ryk teksverwerkingsinstrumente, dikwels gebruik vir die verwerking van natuurlike tale.

TensorFlow is 'n gratis en oopbron sagteware-biblioteek vir masjienleer. Dit kan in verskillende take gebruik word, maar fokus veral op opleiding en afleiding van diep neurale netwerke. Dit is 'n simboliese wiskundebiblioteek wat gebaseer is op datavloei en onderskeibare programmering. Dit word gebruik vir sowel navorsing as produksie by Google.

TensorFlow is ontwikkel deur die Google Brain-span vir interne Google-gebruik. Dit is in 2.0 vrygestel onder die Apache License 2015.

Vanaf 2011 het Google Brain DistBelief gebou as 'n eie masjienleerstelsel gebaseer op neurale netwerke met diep leer. Die gebruik daarvan het vinnig toegeneem in verskillende Alfabet-ondernemings in sowel navorsings- as kommersiële toepassings. Google het verskeie rekenaarwetenskaplikes, waaronder Jeff Dean, aangewys om die kodebasis van DistBelief te vereenvoudig in 'n vinniger, meer robuuste biblioteek vir toepassingsgraad, wat TensorFlow geword het. In 2009 het die span, onder leiding van Geoffrey Hinton, algemene backpropagation en ander verbeterings geïmplementeer wat die opwekking van neurale netwerke met 'n aansienlik hoër akkuraatheid moontlik gemaak het, byvoorbeeld 'n vermindering van 25% in spraakherkenning met XNUMX%.

TensorFlow is die tweede generasie stelsel van Google Brain. Weergawe 1.0.0 is op 11 Februarie 2017 vrygestel. Alhoewel die verwysingsimplementering op enkele toestelle uitgevoer word, kan TensorFlow op verskeie SVE's en GPU's werk (met opsionele CUDA- en SYCL-uitbreidings vir algemene rekenaars op grafiese verwerkingseenhede). TensorFlow is beskikbaar op 64-bis Linux-, macOS-, Windows- en mobiele rekenaarplatforms, insluitend Android en iOS. Die buigsame argitektuur maak dit maklik om berekenings op verskillende platforms (CPU's, GPU's, TPU's) te implementeer, en van lessenaars tot bedienersgroepe tot mobiele en randtoestelle. TensorFlow-berekeninge word uitgedruk as statiewe datavloeigrafieke. Die naam TensorFlow is afgelei van die bewerkings wat sulke neurale netwerke op multidimensionele data-skikkings uitvoer, wat tensors genoem word. Tydens die Google I/O-konferensie in Junie 2016 het Jeff Dean gesê dat 1,500 bewaarplekke op GitHub TensorFlow genoem het, waarvan slegs 5 van Google afkomstig was. In Desember 2017 stel ontwikkelaars van Google, Cisco, RedHat, CoreOS en CaiCloud Kubeflow tydens 'n konferensie bekend. Met Kubeflow kan TensorFlow op Kubernetes bedryf en ontplooi word. In Maart 2018 het Google TensorFlow.js weergawe 1.0 vir masjienleer in JavaScript aangekondig. In Januarie 2019 het Google TensorFlow 2.0 aangekondig. Dit het amptelik beskikbaar geword in September 2019. In Mei 2019 het Google TensorFlow Graphics aangekondig vir diep leer in rekenaargrafika.

Keras is 'n oopbron sagteware-biblioteek wat 'n Python-koppelvlak bied vir kunsmatige neurale netwerke. Keras dien as 'n koppelvlak vir die TensorFlow-biblioteek.

Tot en met weergawe 2.3 ondersteun Keras verskeie backends, waaronder TensorFlow, Microsoft Cognitive Toolkit, Theano en PlaidML. Vanaf weergawe 2.4 word slegs TensorFlow ondersteun. Dit is ontwerp om vinnige eksperimentering met diep neurale netwerke moontlik te maak, en fokus daarop om gebruikersvriendelik, modulêr en uitbreidbaar te wees. Dit is ontwikkel as deel van die navorsingsinspanning van projek ONEIROS (oop-end neuro-elektroniese intelligente robotbedryfstelsel), en François Chollet, 'n Google-ingenieur, se hoofskrywer en instandhouer. Chollet is ook die outeur van die XCeption diep neurale netwerkmodel.

Keras bevat talle implementerings van algemeen gebruikte boustene van neurale netwerke, soos lae, doelstellings, aktiveringsfunksies, optimaliseerders en 'n aantal instrumente om die werk met beeld- en teksdata makliker te maak om die kodering wat nodig is vir die skryf van diepe neurale netwerkkodes te vereenvoudig. Die kode word op GitHub aangebied, en gemeenskapsondersteuningsforums sluit die GitHub-uitgaweblad en 'n Slack-kanaal in.

Benewens standaard neurale netwerke, het Keras ondersteuning vir konvolusionele en herhalende neurale netwerke. Dit ondersteun ander algemene nutslae, soos dropout, batch normalisering en pooling. Met Keras kan gebruikers diep modelle op slimfone (iOS en Android), op die internet of op die Java Virtual Machine vervaardig. Dit laat ook die gebruik van verspreide opleiding van diepleermodelle toe op trosse grafiese verwerkingseenhede (GPU) en tensorverwerkingseenhede (TPU). Keras is aangeneem vir gebruik in wetenskaplike navorsing as gevolg van Python (programmeertaal) en die gemak en gebruik daarvan. Keras was die 10de mees genoemde instrument in die KDnuggets 2018-sagteware-peiling en het 'n gebruik van 22% geregistreer.

Om jouself in besonderhede te vergewis van die sertifiseringskurrikulum, kan jy die tabel hieronder uitbrei en ontleed.

Die EITC/AI/DLPTFK Deep Learning with Python, TensorFlow en Keras Sertifiseringskurrikulum verwys na oop-toegang didaktiese materiaal in 'n videovorm deur Harrison Kinsley. Leerproses word verdeel in 'n stap-vir-stap-struktuur (programme -> lesse -> onderwerpe) wat relevante kurrikulumdele dek.
Onbeperkte advies met domeinkenners word ook aangebied.

Gaan na vir besonderhede oor die Sertifiseringsprosedure Hoe dit werk.

Lees meer
Geen kommentaar

EITC/AI/MLP masjienleer met Python

Dinsdag, 02 Februarie 2021 by admin

EITC/AI/MLP Masjienleer met Python is die Europese IT-sertifiseringsprogram op die basis van programmering van masjienleer met Python-taal.

Die kurrikulum van die EITC/AI/MLP Machine Learning with Python fokus op teoretiese en praktiese vaardighede in masjienleerprogrammering wat binne die volgende struktuur georganiseer is, en omvattende videodidaktiese inhoud bevat as verwysing vir hierdie EITC-sertifisering.

Masjienleer (ML) is die bestudering van rekenaaralgoritmes wat outomaties verbeter deur ervaring. Dit word gesien as 'n deel van kunsmatige intelligensie. Masjienleeralgoritmes bou 'n model gebaseer op voorbeelddata, bekend as die opleidingsdata, om voorspellings of besluite te neem sonder om eksplisiet daarvoor geprogrammeer te word.

Masjienleeralgoritmes word in 'n wye verskeidenheid toepassings gebruik, soos e-posfiltering en rekenaarvisie, waar dit moeilik of onuitvoerbaar is om konvensionele algoritmes te ontwikkel om die nodige take uit te voer. Masjienleer is in 1959 deur Arthur Samuel omskryf as die 'studieveld wat rekenaars die vermoë gee om te leer sonder om eksplisiet te wees.'

'N Onderstel van masjienleer is nou verwant aan rekenaarstatistieke, wat fokus op die voorspelling van rekenaars, maar nie alle masjienleer is statistiese leer nie. Die studie van wiskundige optimalisering lewer metodes, teorie en toepassingsdomeine op die gebied van masjienleer. Data-ontginning is 'n verwante vakgebied, wat fokus op verkennende data-analise deur leer sonder toesig. In die toepassing daarvan in sakeprobleme word masjienleer ook voorspellingsanalise genoem.

Masjienleerbenaderings word tradisioneel in drie breë kategorieë verdeel, afhangende van die aard van die 'sein' of 'terugvoer' wat aan die leerstelsel beskikbaar is:

  • Leer onder toesig: die rekenaar bied voorbeeldinvoere en hul gewenste uitsette, wat deur 'n 'onderwyser' gegee word, en die doel is om 'n algemene reël te leer wat insette na uitsette karteer.
  • Onbewaakte leer: Geen etikette word aan die leeralgoritme gegee nie, wat dit op sy eie laat om struktuur in die insette te vind. Onbewaakte leer kan 'n doel op sigself wees (verborge patrone in data ontdek) of 'n manier om dit te beëindig (kenmerkende leer).
  • Versterkingsleer: 'n Rekenaarprogram is in wisselwerking met 'n dinamiese omgewing waarin dit 'n sekere doel moet bereik (soos om 'n voertuig te bestuur of 'n wedstryd teen 'n teenstander te speel). Terwyl dit deur sy probleemruimte navigeer, word die program terugvoer gegee wat ooreenstem met belonings, wat dit probeer maksimeer.

Ander benaderings is ontwikkel wat nie netjies in hierdie drievoudige kategorisering pas nie, en soms word meer as een deur dieselfde masjienleerstelsel gebruik. Byvoorbeeld onderwerpmodellering, dimensievermindering of metaleer.

Vanaf 2020 het diep leer die dominante benadering geword vir baie deurlopende werk op die gebied van masjienleer.

Python is 'n geïnterpreteerde, hoë vlak en algemene programmeertaal. Python se ontwerpfilosofie beklemtoon die leesbaarheid van die kode deur die noemenswaardige gebruik van 'n groot ruimte. Sy taalkonstruksies en objekgerigte benadering is daarop gemik om programmeerders te help om duidelike, logiese kode vir klein en grootskaalse projekte te skryf. Vanweë die uitgebreide standaardbiblioteek word Python dikwels beskryf as 'n “batterye ingesluit” -taal. Python word algemeen gebruik in kunsmatige intelligensieprojekte en masjienleerprojekte met behulp van biblioteke soos TensorFlow, Keras, Pytorch en Scikit-leer.

Python is dinamies getik (voer tydens algemene gebruik baie algemene programmeringsgedrag uit wat statiese programmeertale tydens samestelling uitvoer) en vullis versamel (met outomatiese geheuebestuur). Dit ondersteun verskeie programmeringsparadigmas, insluitend gestruktureerde (veral prosedurele), objekgerigte en funksionele programmering. Dit is in die laat 1980's geskep, en die eerste keer vrygestel in 1991 deur Guido van Rossum as 'n opvolger van die ABC-programmeertaal. Python 2.0, wat in 2000 vrygestel is, het nuwe funksies bekendgestel, soos 'n lysbegrip, en 'n vullisverwyderingstelsel met verwysingtelling, en is in 2.7 met weergawe 2020 gestaak. Python 3.0, wat in 2008 vrygestel is, was 'n belangrike hersiening van die taal wat nie heeltemal agtertoe-versoenbaar nie en baie Python 2-kode loop nie onveranderd op Python 3. nie. Met Python 2 se einde van die lewe (en pip het die ondersteuning in 2021 laat val), word slegs Python 3.6.x en later ondersteun, met nog ouer weergawes ondersteun byvoorbeeld Windows 7 (en ou installeerders nie beperk tot 64-bis Windows nie).

Python-tolke word ondersteun vir hoofstroom-bedryfstelsels en is beskikbaar vir 'n paar meer (en in die verlede baie meer ondersteun). 'N Globale gemeenskap van programmeerders ontwikkel en onderhou CPython, 'n gratis en open source-verwysingsimplementering. 'N Organisasie sonder winsbejag, die Python Software Foundation, bestuur en stuur hulpbronne vir die ontwikkeling van Python en CPython.

Met ingang van Januarie 2021 beklee Python die derde plek in TIOBE se indeks van gewildste programmeertale, agter C en Java, nadat hy voorheen die tweede plek behaal het en die toekenning vir die gewildste wins vir 2020 behaal het. In 2007, 2010 is dit die programmeertaal van die jaar gekies. , en 2018.

In 'n empiriese studie is bevind dat skripttale, soos Python, produktiewer is as konvensionele tale, soos C en Java, vir programmeringsprobleme met betrekking tot snaarmanipulasie en soek in 'n woordeboek, en het vasgestel dat geheueverbruik dikwels 'beter is as Java en nie baie erger as C of C ++ ”. Groot organisasies wat Python gebruik, is onder andere Wikipedia, Google, Yahoo !, CERN, NASA, Facebook, Amazon, Instagram.

Behalwe vir kunsmatige intelligensie-toepassings, word Python, as 'n skriptaal met modulêre argitektuur, eenvoudige sintaksis en ryk teksverwerkingsinstrumente, dikwels gebruik vir die verwerking van natuurlike tale.

Om jouself in besonderhede te vergewis van die sertifiseringskurrikulum, kan jy die tabel hieronder uitbrei en ontleed.

Die EITC/AI/MLP Masjienleer met Python-sertifiseringskurrikulum verwys na oop-toegang didaktiese materiaal in 'n videovorm deur Harrison Kinsley. Leerproses word verdeel in 'n stap-vir-stap-struktuur (programme -> lesse -> onderwerpe) wat relevante kurrikulumdele dek. Onbeperkte konsultasie met domeinkundiges word ook verskaf.
Gaan na vir besonderhede oor die Sertifiseringsprosedure Hoe dit werk.

Lees meer
Geen kommentaar
  • 1
  • 2
Tuis » EITCA/AI

Sertifiseringsentrum

GEBRUIKERSMENU

  • My Besprekings

SERTIFIKAAT KATEGORIE

  • EITC Sertifisering (105)
  • EITCA-sertifisering (9)

Waarvoor soek jy?

  • Inleiding
  • Hoe dit werk?
  • EITCA Akademies
  • EITCI DSJC Subsidie
  • Volledige EITC-katalogus
  • Jou bestelling
  • Gewild
  •   IT ID
  • Oor
  • Kontak

Geskiktheid vir EITCA Academy 80% EITCI DSJC Subsidie ​​support

80% van die EITCA Akademiegeld gesubsidieer by inskrywing deur 4/2/2023

    EITCA Akademiese administratiewe kantoor

    Europese IT-sertifiseringsinstituut
    Brussel, België, Europese Unie

    EITC/EITCA-sertifiseringsowerheid
    Beheer Europese IT-sertifiseringstandaard
    Toegang Kontak Vorm of oproep + 32 25887351

    2 dae geledeDie #EITC/QI/QIF Quantum Information Fundamentals (deel van #EITCA/IS) getuig van kundigheid in #Kwantum Berekening en … https://t.co/OrYWUOTC1X
    Volg @EITCI

    Vertaal outomaties na jou taal

    Terme en voorwaardes | Privaatheidsbeleid
    Volg @EITCI
    EITCA Akademie
    • EITCA Akademie op sosiale media
    EITCA Akademie


    © 2008-2023  Europese IT-sertifiseringsinstituut
    Brussel, België, Europese Unie

    TOP
    Gesels met ondersteuning
    Gesels met ondersteuning
    Vrae, twyfel, kwessies? Ons is hier om jou te help!
    Klets beëindig
    Koppel tans ...
    Het jy 'n vraag? Vra ons!
    Het jy 'n vraag? Vra ons!
    :
    :
    :
    Stuur
    Het jy 'n vraag? Vra ons!
    :
    :
    Begin klets
    Die kletsessie is beëindig. Dankie!
    Beoordeel die ondersteuning wat u ontvang het.
    goeie Bad