Viac

Nasadenie OpenLayers: na čo sa libs spolieha selectFeature?


Snažím sa minimalizovať svoj kód úpravou konfiguračného súboru OpenLayers, aby som ho zmenšildoba načítania. Zdá sa však, že nemôžem zahrnúť všetky potrebné knižnice, ktoré OpenLayers.SelectFeature.Control potrebuje. Tu je konfiguračný súbor:

[zahrnúť] OpenLayers / Map.js OpenLayers / Kinetic.js OpenLayers / Projection.js OpenLayers / Handler.js OpenLayers / Control.js OpenLayers / BaseTypes / Pixel.js OpenLayers / BaseTypes / LonLat.js OpenLayers / BaseTypes / Bounds.js OpenLayers /Layer/SphericalMercator.js OpenLayers / Layer / XYZ.js OpenLayers / Layer / WMS.js OpenLayers / Layer / Vector.js OpenLayers / Layer / ArcGISCache.js OpenLayers / Control / TouchNavigation.js OpenLayers / Control / Geolocate.js OpenLayers / Control / Attribution.js OpenLayers / Control / SelectFeature.js OpenLayers / Control / DrawFeature.js OpenLayers / Control / ModifyFeature.js OpenLayers / Control / Snapping.js OpenLayers / Control / Split.js OpenLayers / Control / Panel.js OpenLayers / Control /Button.js OpenLayers / Control / PinchZoom.js OpenLayers / Feature / Vector.js OpenLayers / Feature / WFS.js OpenLayers / Handler / Click.js OpenLayers / Handler / Feature.js OpenLayers / Handler / Hover.js OpenLayers / Handler / Box.js OpenLayers / Renderer / SVG.js OpenLayers / Renderer / Canvas.js OpenLayers / Format / GeoJSON.js OpenLayers / Format / KML.js OpenLaye rs / Format / WFS.js OpenLayers / Format / WFSCapabilities.js OpenLayers / Format / WFSCapabilities / v1.js OpenLayers / Format / WFSCapabilities / v1_0_0.js OpenLayers / Format / WFSCapabilities / v1_1_0.js OpenLayers / Format / WFSDescribeFeatureTyers Format / XML.js OpenLayers / Request / XMLHttpRequest.js OpenLayers / Protocol / HTTP.js OpenLayers / Protocol / WFS.js OpenLayers / Protocol / WFS / v1.js OpenLayers / Protocol / WFS / v1_0_0.js OpenLayers / Protocol / WFS / v1_1_0.js OpenLayers / Stratégia / Fixed.js OpenLayers / Stratégia / BBOX.js

Keď testujem funkciu selectFeature, ktorá má v ponuke OnSelect kontextové okno s informáciami o funkcii, vždy mi povie nasledujúcu chybu:

nemôže volať "pridať" nedefinované

na ktoré si myslím, že poukazuje na to, že v spise zselectFeature.js, pod položkou „pixelToBounds“ nie je definovaná premenná „pixel“, a potom predpokladám, že je relevantná pre rozpoznanie výrazu „evt“.

mohol by mi niekto dať nejaké rady?

Ďakujem!


ak si prezriete kód selectFeature Control, uvidíte nasledujúce súbory vyžadujúce súbory:

/ ** * @requires OpenLayers / Control.js * @requires OpenLayers / Feature / Vector.js * @requires OpenLayers / Handler / Feature.js * @requires OpenLayers / Layer / Vector / RootContainer.js * /

Dúfam, že vám to pomôže ...


Smerom k integrácii informácií o senzoroch viacerých agentúr pre zvládanie katastrof

Študoval proces začlenenia údajov multiinštitucionálnych senzorov pre správu po katastrofe.

Založené na empirickej prípadovej štúdii týkajúcej sa transakcie s informáciami zo senzorov v celom sektore krízového riadenia.

Vyvinuté komponenty pre štandardný prístup, harmonizáciu a pripojenie multiagentúrnych zdrojov senzorov.

Zamestnané štandardy OGC Sensor Web Enablement pre integráciu zdrojov údajov senzorov od viacerých dodávateľov.

Implementovaný nástroj založený na GIS, IDDSS-senzor, ktorý umožňuje integráciu údajov zo senzorov v reálnom čase a pomáha pri záplavách.


2 odpovede 2

Povolenie nespravovaného ladenia môže mať užitočný vedľajší efekt, iba ak máte tiež PDB a zdrojový kód komponentu. Vy nie, predajcovia tohto druhu komponentov to nezverejňujú. Jediným dôvodom, prečo vidíte vôbec nič, je to, že ste VS nechali generovať zhromaždenie interop pre komponent COM. Ktorá prevádza vyhlásenia v knižnici typov pre komponent na ekvivalentné typy .NET. Rovnako ako IGeometry, pravdepodobne aj C ++ trieda pod kapotou.

Čo je veľký rozdiel medzi horným a spodným zobrazením obrazovky. Počnúc verziou VS2010 a .NET 4.0 už táto interopová zostava nie je potrebná. Nazýva sa „vloženie typu“, čo je vo všeobecnosti veľmi užitočná funkcia, ktorá zabráni nutnosti nasadiť PIA pre komponent. Veľmi veľký problém, najmä pre spoluprácu Office.

Zadajte vkladanie agresívne odstránených typov a členov, ktoré sa nepoužívajú v zdrojovom kóde. To, čo zostane, je vložené do vašej konečnej zostavy, čím odpadá potreba nasadenia interopovej zostavy alebo PIA. Alebo inými slovami, nemôžete vidieť IGeometry.Envelope späť v debuggeri, pretože váš zdrojový kód túto vlastnosť nepoužíva. Vyizolovalo sa to typom zabudovaným do vodovodu.

To sa dá ľahko napraviť. Vyberte referenciu COM v uzle Reference svojho projektu a nastavte jej vlastnosť „Embed Interop Types“ na False. Po testovaní to tak môžete nechať, nezabudnite potom nasadiť aj interopovú zostavu.


Elektronický obchod, infraštruktúra pre

Manish Agrawal,. Kichan Nam, Encyklopédia informačných systémov, 2003

VIII.B. Softvér a aplikácie

V súvislosti so softvérovými aplikáciami je stále k dispozícii nová voľba. ASP sú subjekty tretích strán, ktoré spravujú a distribuujú softvérové ​​služby a riešenia zákazníkom v rámci rozsiahlej siete z centrálneho dátového centra. ASP sú v podstate spôsob, ako spoločnosti môžu outsourcovať niektoré alebo takmer všetky aspekty svojich potrieb informačných technológií. Softvérové ​​riešenia možno získať aj od poradenských spoločností pre elektronický obchod, ktoré môžu poskytovať aj nehmotné služby, ako sú poradenstvo, inštalácia a údržba produktu. Rýchle prijatie internetovej technológie otvorilo úplne nové konkurenčné prostredie, ktoré umožňuje aj najmenším spoločnostiam efektívne konkurovať väčším konkurentom. Okrem toho internet otvoril nové cesty k osloveniu obchodných partnerov všetkých veľkostí nákladovo efektívne a s minimálnym alebo žiadnym úsilím o integráciu. Všetky tieto úspechy je možné jednoducho dosiahnuť nasadením vlastného softvéru vyvinutého niektorými inovovanými spoločnosťami zameranými na oblasť elektronického obchodu.

Softvérové ​​riešenia elektronického obchodu, ako napríklad správa transakcií, správa nákupu, správa katalógov, logistika, správa skladov, riadenie vzťahov so zákazníkmi. Správa spolupráce s webhostingom medzi kupujúcimi, dodávateľmi a prepravcami, atď. s relatívne malým počtom úprav a integračných problémov.


Aplikácie GIS pre socioekonómiu a humanitu

3.07.3.3 Regionálne a tematické historické GIS

V posledných rokoch prosperuje najmä v Číne výstavba a výskum regionálnych a tematických historických GIS. Čínska biografická databáza je voľne prístupná relačná databáza s biografickými informáciami, predovšetkým zo 7. až 19. storočia. V prípade online aj offline verzie majú byť údaje užitočné pre štatistickú analýzu, analýzu sociálnych sietí a priestorovú analýzu. Slúži tiež ako životopisný odkaz (Bol, 2007). Su a kol. (2011) použili geografické informácie o reliéfoch, mestách, obyvateľstve, doprave, chrámoch a školách regiónu Songjiang počas neskorej dynastie Ming a vytvorili historickú databázu GIS mesta Songjiang počas neskorej dynastie Ming (MSJGIS). Výskumné centrum historickej geografie Pekinskej univerzity v spolupráci s mestskou komisiou pre mestské plánovanie v Pekingu zostavili historickú digitálnu mapu Pekingu (Tang, 2004) a ďalej vytvorili pekinskú webovú stránku s historickými kultúrnymi geografickými informáciami (mestská komisia pre mestské plánovanie v Pekingu, 2015). Chen (2004) založil historickú geografickú databázu Jiankang (historické mesto v období šiestich dynastií v dávnej histórii Číny) pomocou historických geografických dokumentov. Na základe Hypermedia GIS vyvinul Chen internetový historický GIS s elektronickými mapami Hypermedia ako svoje rozhranie a realizoval funkcie tematického mapovania, prehliadania multimediálnych informácií, vizuálneho informačného dotazu, publikovania informácií a zdieľania mesta Jiankang. Li a kol. (2009) použili historickú mapu Foshan ako základné priestorové údaje na založenie priestorovej databázy a databázy atribútov starodávneho Foshanu a realizovali funkcie získavania a spracovania údajov, priestorového dotazovania a analýz, zobrazenia tematických máp a výstupov historických a kultúrnych krajín. Projekt Historický a humánny geografický informačný systém „Medzinárodné metropoly (Šanghaj)“ už navyše vytvoril základné databázy pokrývajúce podrobný obsah a zmeny rôznych historických a ľudských krajín v Šanghaji od čias dynastie Song a zostavil mestský historický atlas v Šanghaji, ktorý bude obsahovať. postupne budovať šanghajskú mestskú historickú a ľudskú platformu GIS.

Čínska historická geografická platforma digitálnych aplikácií je aplikačný systém založený na údajoch CHGIS. Platforma transformuje údaje o názvoch miest vyjadrené výrazom „doba prežitia“ v CHGIS na údaje o názvoch miest „z roka na rok“. Bežní používatelia mohli platformu používať na prehliadanie a prehľadávanie historických máp. Používatelia tematických máp môžu kresliť rôzne druhy tematických historických máp pomocou platformy. Tieto mapy zahŕňajú mapy udalostí, ktoré vyjadrujú hlavne informácie o trasách, a štatistické mapy, ktoré vyjadrujú hlavne informácie o množstve. Príkladom je mapa miest pobytu alebo rozmiestnenia domovských miest. Tematický systém je navrhnutý s rôznymi témami a umožňuje platforme rozšíriť svoje systematické funkcie a vytvoriť špecializované systémy: napríklad historický GIS literatúry z dynastie Tang. Štúdie tematických aplikácií založených na systéme CCTS prešli postupným vývojom. Medzi tieto prípady patrí analýza oblastí tlmiacich povodne v oblasti žltej rieky v dynastii Tchang, analýza priestorových zmien v juhočínskych mestách v dynastiách Ming a Qing, analýza cien obilia a integrácia obyvateľstva v dynastii Qing a štúdia z trás v juhovýchodných básňach Su Shi (slávny čínsky básnik z dynastie Song).

Analýzou, rekonštrukciou a časopriestorovým umiestnením oficiálnych historických textov Xu a kol. (2013) postupne zostavili časopriestorovú databázu a GIS oficiálnych dejín s časom, miestom, postavami, udalosťami a scénami ako svojimi piatimi prvkami a dokončili databáza a mapovanie prvých štyroch historických kníh. Liu a Hu (2014) extrahovali, analyzovali a vykonali priestorovú orientáciu názvov miest v knihe Základy historickej geografie, a týmto spôsobom založili databázu miestnych mien dynastie Ming s geografickými súradnicami. On a spol. (2013) vzal Shi Ji (Historické záznamy) ako príklad návrhu výrazových štandardov historických faktorov a ich vzťahov, metódy párovania historických faktorov a jednotného časopriestorového rámca. Miestne kroniky zaznamenávajú históriu a súčasnú situáciu v prírode a spoločnosti na základe administratívneho členenia a môžu byť použité ako všeobecný zdroj údajov GIS.

Zriadenie GIS s miestnymi kronikami je rozvíjajúcim sa trendom provinčnej siete informačných zdrojov (knižnica) (Gong a Hu, 2001). Genealógia vytvára časové záznamy o generačných a dedičských vzťahoch rodiny a priestorové záznamy o rodinnej distribúcii a migrácii. Chen a Huang (2005) diskutovali o aplikácii GIS v prostredí klanovej kultúry a navrhli vyvinúť genealogický MIS domov a chrámov predkov v dynastiách Ming a Qing. Lu a kol. (2010) a Hu a kol. (2012) navrhol skonštruovať čínsky genealogický GIS, navrhnúť genealogický časopriestorový dátový model a vybudovať jednotný časopriestorový rámec založený na časovo-referenčných databázach, starodávnej a modernej databáze miestnych mien a databáze historických divízií správy. Rozvojom čínskej genealogickej platformy GIS sa im podarilo zrealizovať digitalizáciu, informáciu, priestorovosť a časopriestorové vizuálne vyjadrenie genealógie. Ich úspechy nielen obohacujú genealogické údaje a historické názvy miestnych mien, ale tiež posilňujú budúcu časopriestorovú analýzu, odklepávanie a aplikáciu genealogických informácií.

Na konštrukciu historických databáz GIS a softvérových systémov rôznych úrovní a typov sa vynaložilo veľké množstvo času a peňazí, čo do istej miery obohatilo historické údaje GIS a umožnilo dopytovať, analyzovať a ťažiť časopriestorové údaje na základe historických GIS. Ale kvôli širokej škále histórie a mimoriadne bohatým historickým dokumentom je stále potrebných viac investícií do budovania kvalitnejších historických databáz GIS. Je to veľmi dôležité pre krajiny s dlhou históriou, ako je Čína. Mali by sme si však uvedomiť, že tieto historické GIS databázy a softvérové ​​systémy vo veľkej miere požičiavajú a presádzajú úspešné aplikácie GIS z iných oblastí a o konštrukcii historických GIS databáz a ich obmedzeniach sa neuskutočnilo dostatočné množstvo štúdií. Napríklad sa nepodarilo dosiahnuť konsenzus a riešenia týkajúce sa spôsobu vyjadrenia neistoty historických geografických údajov v GIS alebo spôsobu vyjadrenia meniacich sa informácií v čase v GIS.


Nezvratné dôkazy vedúce k neprehľadnosti

Nezvratné dôkazy sa zameriavajú na problémy spojené s nedostatkom transparentnosti, ktoré často charakterizujú algoritmy (najmä algoritmy a modely ML), sociálno-technickú infraštruktúru, v ktorej existujú, a rozhodnutia, ktoré podporujú. Nedostatok transparentnosti - či už inherentný z dôvodu technologických obmedzení alebo získaný rozhodnutiami o dizajne a zahmlievaním základných údajov (Lepri a kol. 2018 Dahl 2018 Ananny a Crawford 2018 Weller 2019) - sa často prejaví nedostatkom kontroly a / alebo zodpovednosti. (Oswald 2018 Fink 2018 Webb et al. 2019) a vedie k nedostatku „dôveryhodnosti“ (pozri Al-Hleg 2019).

Podľa nedávnej literatúry medzi faktory prispievajúce k celkovému nedostatku algoritmickej transparentnosti patrí kognitívna nemožnosť ľudí interpretovať masívne algoritmické modely a súbory údajov, nedostatok vhodných nástrojov na vizualizáciu a sledovanie veľkého množstva kódu a dátového kódu a údajov, ktoré sú také zlé. štruktúrované tak, že ich nie je možné prečítať a neustále aktualizácie a ľudský vplyv na model (Diakopoulos a Koliska 2017 Stilgoe 2018 Zerilli et al. 2019 Buhmann et al. 2019). Nedostatok transparentnosti je tiež neodmysliteľnou charakteristikou algoritmov samoučenia, ktoré počas procesu učenia menia svoju rozhodovaciu logiku (vytvárajú nové súbory pravidiel), čo vývojárom sťažuje podrobné porozumenie toho, prečo došlo k určitým zmenám (Burrell 2016 Buhmann a kol. 2019). To sa však nemusí nevyhnutne prejaviť v nepriehľadných výsledkoch, pretože aj bez pochopenia každého logického kroku môžu vývojári upraviť hyperparametre, parametre, ktoré riadia tréningový proces, na testovanie rôznych výstupov. V tejto súvislosti Martin (2019) zdôrazňuje, že aj keď je ťažkosti s vysvetlením výstupov algoritmov ML určite reálne, je dôležité nenechať tieto ťažkosti motivovať organizácie k vývoju zložitých systémov, aby sa zbavili zodpovednosti.

Nedostatok transparentnosti môže vyplynúť aj z tvárnosti algoritmov, vďaka ktorej je možné algoritmy preprogramovať kontinuálnym, distribuovaným a dynamickým spôsobom (Sandvig et al. 2016). Algoritmická tvárnosť umožňuje vývojárom monitorovať a zlepšovať už nasadený algoritmus, ale môže sa tiež zneužiť na rozmazanie histórie jeho vývoja a ponechanie koncových používateľov v stave zmätku ohľadom dostupnosti daného algoritmu (Ananny a Crawford 2018). . Zvážte napríklad hlavný vyhľadávací algoritmus spoločnosti Google. Jeho tvárnosť umožňuje spoločnosti vykonávať neustále revízie, ktoré naznačujú trvalý stav destabilizácie (Sandvig et al. 2016). To si vyžaduje od tých, ktorých sa algoritmus týka, aby ho neustále sledovali a podľa toho aktualizovali svoje porozumenie - pre väčšinu je to nemožná úloha (Ananny a Crawford 2018).

Ako poznamenávajú Floridi a Turilli (2009, 105), transparentnosť nie je „etickým princípom sama o sebe, ale pro-etickou podmienkou pre umožnenie alebo narušenie iných etických postupov alebo princípov“. Samotná úplná transparentnosť môže skutočne spôsobiť zreteľné etické problémy (Ananny a Crawford 2018): transparentnosť môže používateľom poskytnúť niektoré dôležité informácie o vlastnostiach a obmedzeniach algoritmu, ale môže tiež používateľov zahltiť informáciami, a tým poskytnúť algoritmu viac nepriehľadné (Kizilcec 2016 Ananny a Crawford 2018). Ďalší výskum zdôrazňuje, že nadmerné zameranie na transparentnosť môže byť škodlivé pre inovácie a zbytočne presmerovať zdroje, ktoré by sa namiesto toho mohli použiť na zlepšenie bezpečnosti, výkonu a presnosti (Danks a London 2017 Oswald 2018 Ananny a Crawford 2018 Weller 2019). Napríklad diskusia o uprednostňovaní transparentnosti (a vysvetliteľnosti) je obzvlášť kontroverzná v súvislosti s lekárskymi algoritmami (Robbins 2019).

Transparentnosť môže jednotlivcom umožniť hrať systém (Martin 2019 Magalhães 2018 Floridi et al. 2020). Znalosti o zdroji súboru údajov, predpokladoch, na základe ktorých sa uskutočnilo vzorkovanie, alebo metrikách, ktoré algoritmus používa na triedenie nových vstupov, sa môžu použiť na zistenie spôsobov, ako využiť výhody algoritmu (Szegedy a kol. 2014 Yampolskiy 2018) . Schopnosť hrať algoritmy je však na dosah iba pre niektoré skupiny obyvateľstva - napríklad pre osoby s vyššou digitálnou gramotnosťou - a vytvára tak ďalšiu formu sociálnej nerovnosti (Martin 2019 Bambauer a Zarsky 2018). Zmätenie transparentnosti pre samotný účel, namiesto proetického faktora (Floridi 2017), ktorý umožňuje rozhodujúce etické postupy, preto nemusí vyriešiť existujúce etické problémy spojené s používaním algoritmov a skutočne priniesť nové. Preto je dôležité rozlišovať medzi rôznymi faktormi, ktoré môžu brániť priehľadnosti algoritmov, identifikovať ich príčinu a vynucovať potrebu transparentnosti určením, ktoré faktory sú potrebné a na ktorých vrstvách algoritmických systémov by sa mali zaoberať (Diakopoulos a Koliska 2017).

Existujú rôzne spôsoby riešenia problémov súvisiacich s nedostatkom transparentnosti. Napríklad Gebru a kol. navrhuje, aby sa obmedzenia transparentnosti, ktoré predstavuje kujnosť algoritmov, dali čiastočne vyriešiť použitím štandardných dokumentačných postupov podobných tým, ktoré sa používajú v elektronickom priemysle, kde.

„Ku každému komponentu, nech je akýkoľvek jednoduchý alebo zložitý, je priložený údajový list s popisom jeho prevádzkových charakteristík, výsledkov testov, odporúčaného použitia a ďalších informácií“ (Gebru et al. 2020, 2).

Verejne dostupná dokumentácia je, bohužiaľ, v súčasnosti pri vývoji algoritmických systémov neobvyklá a neexistuje žiadny dohodnutý formát, ktorý by sa mal zahrnúť do dokumentácie o pôvode súboru údajov (Arnold a kol. 2019 Gebru a kol. 2020).

Aj keď je relatívne rodiaci sa, ďalším potenciálne sľubným prístupom k presadzovaniu algoritmickej transparentnosti je použitie technických nástrojov na testovanie a auditovanie algoritmických systémov a rozhodovanie. Testovanie toho, či algoritmy vykazujú negatívne tendencie, ako je nespravodlivá diskriminácia, a podrobný audit predikcie alebo rozhodovania, môže pomôcť udržať vysokú úroveň transparentnosti (Weller 2019 Malhotra a kol. 2018 Brundage a kol. 2020). Na tento účel boli vyvinuté diskurzívne rámce, ktoré majú podnikom a organizáciám verejného sektora pomôcť porozumieť potenciálnym dopadom nepriehľadných algoritmov, a tým podporiť osvedčené postupy (ICO 2020). Napríklad inštitút AI Now Institute na Newyorskej univerzite vypracoval usmernenie pre hodnotenie algoritmických vplyvov, ktorého cieľom je zvýšiť povedomie a zlepšiť dialóg o potenciálnom poškodení algoritmov ML (Reisman et al. 2018). To zahŕňa dva ciele, ktoré umožňujú vývojárom navrhovať transparentnejšie, a teda dôveryhodnejšie algoritmy ML, a zlepšiť porozumenie a kontrolu algoritmov verejnosťou. V rovnakom duchu poskytli Diakopoulos a Koliska komplexný zoznam „faktorov transparentnosti“ naprieč štyrmi vrstvami algoritmických systémov: údaje, model, inferencia a rozhranie. Faktory okrem iného zahŕňajú.

„Neistota (napr. Rozpätie chýb), včasnosť (napr. Kedy boli údaje zhromaždené), úplnosť alebo chýbajúce prvky, metóda vzorkovania, proveniencia (napr. Zdroje) a objem (napr. Tréningové údaje použité v strojovom učení)“ (Diakopoulos a Koliska 2017 818).

Efektívne postupy transparentnosti pravdepodobne a skutočne musia obsahovať interpretovateľné vysvetlenie vnútorných procesov týchto systémov. Buhmann a kol. (2019) tvrdia, že zatiaľ čo nedostatok transparentnosti je neodmysliteľnou črtou mnohých algoritmov ML, to neznamená, že nie je možné vykonať vylepšenia (Watson et al. 2019). Spoločnosti ako Google a IBM napríklad zvýšili svoje úsilie o to, aby boli algoritmy ML lepšie interpretovateľné a inkluzívne, a to zverejnením nástrojov ako Explainable AI, AI Explainability 360 a What-If Tool. Tieto nástroje poskytujú vývojárom a tiež širokej verejnosti interaktívne vizuálne rozhrania, ktoré zlepšujú čitateľnosť človeka, skúmajú rôzne výsledky modelov, poskytujú argumenty založené na jednotlivých prípadoch, priamo interpretovateľné pravidlá a dokonca identifikujú a zmierňujú nežiaduce predsudky v súboroch údajov a algoritmických modeloch (Mojsilovic 2018 Wexler 2018 ).

Vysvetlenia algoritmov ML sú však obmedzené typom hľadaného vysvetlenia, skutočnosťou, že rozhodnutia majú často viacrozmerný charakter a že rôzni používatelia môžu vyžadovať rôzne vysvetlenia (Edwards a Veale 2017). Identifikácia vhodných metód poskytovania vysvetlení je problémom od konca 90. rokov (Tickle et al. 1998), ale súčasné snahy je možné rozdeliť do dvoch hlavných prístupov: vysvetlenie zamerané na subjekt a vysvetlenie zamerané na model (Doshi-Velez a Kim 2017 Lee et al. 2017 Baumer 2017 Buhmann et al. 2019). V prvom prípade je presnosť a dĺžka vysvetlenia prispôsobená používateľom a ich konkrétnym interakciám s daným algoritmom (pozri napríklad [Green and Viljoen 2020] a herný model navrhnutý [Watson a Floridi 2020]) v v druhom rade sa vysvetlenia týkajú modelu ako celku a nezávisia od jeho publika.

Vysvetliteľnosť je obzvlášť dôležitá pri zvažovaní rýchlo rastúceho počtu otvorených zdrojov a ľahko použiteľných modelov a súborov údajov. Non-experti čoraz častejšie experimentujú s najmodernejšími algoritmickými modelmi široko dostupnými prostredníctvom online knižníc alebo platforiem, ako je GitHub, bez toho, aby vždy úplne pochopili svoje limity a vlastnosti (Hutson 2019). Toto podnietilo vedcov k domnienke, že pri riešení problému technickej zložitosti je potrebné viac investovať do verejného vzdelávania s cieľom zvýšiť výpočtovú a dátovú gramotnosť (Lepri et al. 2018). Zdá sa, že by to bolo vhodné dlhodobé riešenie viacvrstvových problémov zavedených všadeprítomnými algoritmami, a softvér open-source sa často uvádza ako kritický pre riešenie (Lepri et al. 2018).


Sémantika

Nástroje a technológie pochádzajúce zo sémantického webu konzorcia World Wide Web Consortium sa ukazujú ako užitočné pri problémoch s integráciou údajov v informačných systémoch. Zodpovedajúcim spôsobom boli tieto technológie navrhnuté ako prostriedok na uľahčenie interoperability a opätovného použitia údajov medzi aplikáciami GIS & # 160. & # 9145 & # 93 & # 9146 & # 93 a tiež umožniť nové mechanizmy analýzy. & # 9147 & # 93

Ontológie sú kľúčovou súčasťou tohto sémantického prístupu, pretože umožňujú formálne, strojovo čitateľné spresnenie pojmov a vzťahov v danej oblasti. To zase umožňuje GIS zamerať sa skôr na zamýšľaný význam dát, ako na ich syntax alebo štruktúru. Napríklad odôvodnenie, že typ krajinnej pokrývky klasifikovaný ako listnaté ihličnaté stromy v jednom súbore údajov je špecializácia alebo podmnožina typu krajinnej pokrývky les v inom zhruba utajovanom súbore údajov môže pomôcť GIS automaticky zlúčiť dva súbory údajov do všeobecnejšej klasifikácie krajinnej pokrývky. Predbežné ontológie boli vyvinuté v oblastiach súvisiacich s aplikáciami GIS & # 160, napríklad hydrologická ontológia & # 9148 & # 93 vyvinutá prieskumom Ordnance Survey v Spojene kralovstvo a SWEET ontológie & # 9149 & # 93 vyvinuté laboratóriom Jet Propulsion Laboratory NASA. Spoločnosť W3C Geo Incubator Group & # 9150 & # 93 taktiež navrhuje jednoduchšie ontológie a štandardy sémantických metadát na reprezentáciu geopriestorových údajov na webe. GeoSPARQL je štandard vyvinutý organizáciami Ordnance Survey, United States Geological Survey, Natural Resources Canada, Australia's Commonwealth Scientific and Industrial Research Organisation a ďalšími na podporu tvorby a uvažovania ontológií pomocou dobre pochopených OGC literálov (GML, WKT), topologických vzťahov (Simple Vlastnosti, RCC8, DE-9IM), protokoly dotazov na databázu RDF a SPARQL.

Posledné výsledky výskumu v tejto oblasti je možné vidieť na Medzinárodnej konferencii o geopriestorovej sémantike & # 9151 & # 93 a na seminári Terra Cognita - Pokyny k geopriestorovému sémantickému webu & # 9152 & # 93 na konferencii International Semantic Web Conference.


Nasadenie OpenLayers: na čo sa libs spolieha selectFeature? - Geografické informačné systémy

Asi osemdesiat percent všetkých údajov uložených v podnikových databázach má priestorovú zložku. “

V poslednej dobe sa zvýšil záujem o obrovský potenciál Geospatial BI. Zameriava sa na kombináciu technológií geografického informačného systému (GIS) a business inteligencie (BI). Geospatial BI kombinuje priestorovú analýzu a vizualizáciu máp s osvedčenými nástrojmi BI s cieľom lepšie podporiť proces analýzy podnikových údajov a pomôcť spoločnostiam prijímať informovanejšie rozhodnutia.

BI je pojem podnikového riadenia, ktorý sa týka aplikácií a technológií, ktoré sa používajú na zhromažďovanie, poskytovanie prístupu a analýzu údajov a informácií o podnikových operáciách. Aplikácie BI sa zvyčajne používajú na lepšie pochopenie historických, súčasných a budúcich aspektov obchodných operácií. Aplikácie BI zvyčajne ponúkajú spôsoby, ako ťažiť dáta zamerané na databázu a tabuľkový procesor na výrobu grafických, tabuľkových a iných typov analýz týkajúcich sa obchodných operácií. Systémy BI poskytujú spoločnostiam komplexnejšie vedomosti o faktoroch ovplyvňujúcich ich podnikanie, napríklad metriky predaja, výroby a interných operácií, aby mohli robiť lepšie obchodné rozhodnutia.

Tento článok poskytuje rýchly úvod k niektorým dôležitým konceptom BI. Potom zdôrazňuje potrebu geopriestorového softvéru BI a zaoberá sa integráciou priestorovej zložky v softvérovom balíku BI, aby bolo možné dôsledne povoliť geo-analytické nástroje. Potom predstavíme rôzne vykonané práce a nástroje navrhnuté výskumnou skupinou GeoSOA.

Rýchly úvod do BI

Aplikácie BI sa spoliehajú na komplexnú architektúru softvéru, ktorá sa zvyčajne skladá z:

Nástroj na extrakciu / transformáciu / načítanie (ETL) na extrakciu údajov z rôznych heterogénnych zdrojov, zabezpečenie integrácie a čistenie údajov podľa cieľovej schémy alebo dátovej štruktúry a načítanie údajov do dátového skladu.

Dátový sklad, ktorý uchováva historické údaje organizácie na účely analýzy.

Server online analytického spracovania (OLAP), ktorý umožňuje rýchle a flexibilné skúmanie a analýzu veľkého množstva údajov uložených v dátovom sklade.

Na strane klienta niektoré nástroje na tvorbu prehľadov, dashboardy a / alebo rôzni klienti OLAP na zobrazovanie informácií v grafickej a súhrnnej podobe rozhodovacím orgánom a manažérom. Tieto nástroje ponúkajú možnosti interaktívneho skúmania údajov a podporu procesu analýzy.

Voliteľne niektoré nástroje na dolovanie údajov na automatické načítanie trendov, vzorcov a javov v dátach.

Obrázok 1 zobrazuje typickú infraštruktúru, na ktorú sa aplikácie BI spoliehajú.

Obrázok 1: Klasická architektúra na nasadenie aplikácií BI

Dátový sklad hrá v tejto architektúre ústrednú a rozhodujúcu úlohu. Je to úložisko historických údajov organizácie. Je oddelený od zdrojov prevádzkových údajov, ale často je uložený v systémoch správy relačných databáz. Dátové sklady sú optimalizované na spracovanie veľkého množstva dát, poskytujú rýchlu odozvu počas procesu analýzy a spracovávajú zložité analytické dotazy. Spoliehajú sa na de-normalizované dátové schémy, ktoré zavádzajú určitú redundanciu a poskytujú veľmi rýchle odpovede na časovo náročné dotazy spojené s analytickými požiadavkami.

Dátový sklad sa viac zameriava na analýzu a koreláciu veľkého množstva údajov, ako na získavanie alebo aktualizáciu presnej sady údajov. Toto sa zásadne líši od funkcií transakčných databázových systémov používaných pri každodenných činnostiach spoločnosti.

Obsah dátového skladu je často prezentovaný v súhrnnej podobe predovšetkým pre analytikov a osoby zodpovedné za rozhodovanie. Obrázok 2 zobrazuje rôzne nástroje od spoločnosti Pentaho používané na prezentáciu, prieskum a analýzu údajov.

Obrázok 2: Panely, nástroje na tvorbu prehľadov a na dolovanie údajov

Na dotazovanie v dátovom sklade tieto nástroje spravidla používajú dotazovací jazyk MultiDimensional eXpressions (MDX) implementovaný serverom OLAP. MDX je de facto štandard od spoločnosti Microsoft, ktorý je implementovaný aj inými servermi a klientmi OLAP. MDX je pre dátové kocky OLAP to, čo je jazyk štruktúrovaného dotazu (SQL) pre relačné databázy. Dotazy sú podobné SQL, ale spoliehajú sa na model bližšie k modelu použitému v tabuľkách.

Klientský softvér OLAP navrhuje alternatívne režimy reprezentácie, ako sú koláčové grafy a diagramy, a rôzne nástroje na spresnenie dotazov a na skúmanie údajov. Tieto nástroje sú založené na operátoroch poskytovaných dotazovacím jazykom MDX a na komplexnej logike implementovanej v klientovi. Priestorovú zložku údajov je možné použiť na zlepšenie používateľskej skúsenosti BI so zobrazením máp a nástrojmi priestorovej analýzy na lepšiu podporu procesov analýzy a rozhodovania.

Zlúčenie softvéru BI a GIS

Pre osoby s rozhodovacími právomocami je ťažké odpovedať na zložité otázky typu: kde sú mestské oblasti, ktoré sú v konkrétnej geografickej oblasti citlivejšie na vlny horúčav, intenzívny dážď, záplavy alebo suchá? Koľko ľudí s kardiovaskulárnymi, respiračnými, neurologickými a psychickými chorobami bude v rokoch 2025 a 2050 v konkrétnej geografickej oblasti? Koľko ľudí s nízkym príjmom žije osamelo v budove vyžadujúcej väčšie opravy v konkrétnej geografickej oblasti?

Na zodpovedanie týchto otázok môžete použiť:

1. GIS: znamená písanie veľmi zložitých dotazov SQL a vyhradených ľudských zdrojov. Túto prácu je navyše potrebné vykonať vždy, keď je potrebné vykonať zmenu údajov alebo vykonať novú analýzu.

2. Klasické nástroje BI: často nie sú schopní zvládnuť priestorový rozmer údajov alebo poskytujú iba veľmi základnú podporu. Niektoré javy je možné adekvátne pozorovať a interpretovať iba ich znázornením na mape. Platí to najmä vtedy, keď chcete pozorovať priestorové rozdelenie javu alebo jeho časopriestorový vývoj.

Geospatial BI has recently stirred marked interest for the huge potential of combining spatial analysis and map visualization with proven BI tools.

Tools recently made available on the market rely on a loose coupling between existing GIS software and some proven BI components. They provide first solutions to display maps with summarized and aggregated information stemming from the BI infrastructure while GIS data have to be stored and managed in a separate and transactional database system or GIS data file. These solutions manage geospatial and corporate data in different systems which require additional efforts, resources and costs to consistently feed and maintain them. They also do not fully take advantage of the powerful analytical capabilities of a classical BI infrastructure and usually are not able to handle very large data volumes. This loose coupling often requires the development of dedicated applications each time a new analytical need emerges in the company.

The geometry data type on which geospatial data relies is not handled as any other data type in the BI infrastructure and connections with the GIS have to be carefully initiated and maintained. Drill down and roll-up capabilities in the analytical data to observe data at different levels of detail, time or scale are often not supported by the map display because they are not intrinsic operators available in GIS. This is mainly due to the transactional structure of geospatial data in the underlying GIS software. Dimensional data structures on which BI tools rely are more efficient to quickly reply to complex analytical queries which would have involved numerous time consuming join queries in a transactional system.

Consistently integrating the geospatial component in all parts of the BI architecture is required. Figure 3 illustrates that all components of the BI infrastructure have to be spatially-enabled.

Figure 3: Integrating the Spatial Component into a Classical BI Infrastructure

Some spatial capabilities such as support for reading and writing GIS file formats, coordinate transformations, and spatial reference systems need to be injected into ETL tools. OLAP servers should be extended to become actual Spatial On-Line Analytical Processing (SOLAP) servers. SOLAP should bring the consistent handling of geospatial features, map displays and spatial analysis capabilities. SOLAP servers and clients should “allow a rapid and easy navigation within spatial data warehouses and offer many levels of information granularity, many themes, many epochs and many display modes of information that are synchronized or not: maps, tables and diagrams”.

In this perspective and in order to not reinvent the wheel, the GeoSOA Research Group at Laval University, Quebec, Canada started to consistently and completely integrate the geospatial functionalities into an existing, mature, efficient and reputed open source BI software stack.

A complete open source BI software stack is offered by Pentaho. It includes:

an ETL tool to integrate data from heterogeneous sources to a data warehouse

an OLAP server which provides multidimensional query facilities on top of the data warehouse

reporting and dashboard tools, used to present data to analysts

The integration of the Pentaho software suite with open source GIS components has been investigated to create a complete spatially-enabled BI solution. This work has led to the implementation of GeoKettle, GeoMondrian and SOLAPLayers.

GeoKettle is a spatially-enabled version of Pentaho Data Integration (PDI), formerly known as Kettle. It is a powerful, metadata-driven spatial ETL tool dedicated to the integration of different spatial data sources for building and updating geospatial data warehouses. GeoKettle enables the transparent handling of the geometry data type as any other classical data type to all transformations available in Kettle. It is possible to access geometry objects in JavaScript and to define custom transformation steps. Topological predicates have all been implemented.

GeoKettle has been released under the LGPL. Figure 4 illustrates the GeoKettle user interface showing a basic geospatial data transformation.

Figure 4: GeoKettle Interface

At present, Oracle spatial, PostGIS, and MySQL with ESRI shapefiles are natively supported in read and write modes. At present, Microsoft SQL Server 2008, Ingres, and IBM DB2 can be used with some modification. It is possible to build and feed complex and very large geospatial data warehouses with GeoKettle. Spatial reference systems management and coordinate transformations have been fully implemented. Native support for unsupported geospatial databases and raster and vector based data formats will be implemented in the near future as an active and growing community has federated around the project.

GeoKettle releases are aligned with PDI, allowing GeoKettle to benefit from all the new features provided by PDI. For instance, Kettle is natively designed to be deployed in cluster and web service environments. This makes GeoKettle suitable for deployment as a service in cloud computing environments. It enables the scalable, distributed and on demand processing of large and complex volumes of geospatial data in minutes for critical applications, without requiring a company to invest in an expensive infrastructure of servers, networks and software.

Upcoming features to be implemented in GeoKettle include:

implementation of data matching steps to allow geometric data cleansing and comparison of geospatial datasets

read/write support for other database, GIS file formats and geospatial web services

native support for MS SQL Server 2008 and Ingres

implementation of a spatial analysis step through a graphical interface

GeoMondrian is a spatially-enabled version of Pentaho Analysis Services (Mondrian). It has been released under the EPL.

As far as we know, GeoMondrian is the first implementation of a true SOLAP server. It provides a consistent integration of spatial objects into the OLAP data cube structure, instead of fetching them from a separate spatial database, web service or GIS file. To make a simple analogy, GeoMondrian brings to the Mondrian OLAP server what PostGIS brings to the PostgreSQL database management system. It implements a native geometry data type and provides spatial extensions to the MDX query language, allowing embedding spatial analysis capabilities into analytical queries.

These geospatial extensions to the MDX query language provide many more possibilities, such as:

in-line geometry constructors

member filters based on topological predicates

spatial calculated members and measures

calculations based on scalar attributes derived from spatial features

At present, GeoMondrian only supports PostGIS based data warehouses but other databases should be supported soon.

Formerly known as Spatialytics, SOLAPLayers is a lightweight web cartographic component which enables navigation in SOLAP data cubes. It aims to be integrated into existing dashboard frameworks in order to produce interactive geo-analytical dashboards. The first version of SOLAPLayers stems from a Google Summer of Code (GSoC) 2008 project performed under the umbrella of OSGeo. The client is released under the BSD license and the server under the EPL.

SOLAPLayers is based on the OpenLayers web mapping client and uses olap4j for connection to OLAP data sources. For now, it requires GeoMondrian to display members of a geospatial dimension on a map. SOLAPLayers allows the:

connection with a spatial OLAP server such as GeoMondrian

navigation in geospatial data cubes

cartographic representation of some measures and members of a geospatial dimension as static or dynamic choropleth maps and proportional symbols

A demo application is available online. It demonstrates the interaction with GeoMondrian and how the cartographic navigation in the geospatial data cube is performed.

Upcoming features in the development for SOLAPLayers include:

more map-driven OLAP navigation operators

dimension member selection and navigation controls

new choropleth and graphics mapping styles

styles for other geometry types

This article has highlighted the need for geospatial BI software and has emphasized that spatially-enabling a BI software stack requires the consistent integration of the spatial component and its functionalities into each component of the BI infrastructure. Works performed by the GeoSOA research group have led to the release of three open source building blocks of a consistent and powerful geo-BI software stack.

Based on these key software components, future works deal with the design of a geo-analytical dashboard framework. In order to easily design and deliver dashboards which embed some geospatial components and representations, a highly customisable and flexible geo-analytical dashboard framework is required. A first integration of SOLAPLayers with JasperServer and iReport has recently been performed in the GeoSOA research group. The result of this integration allows displaying information in different ways and the synchronisation between the different representations when the user drills down or rolls up on the map or the charts.

More recently, some experiments dealing with the integration of SOLAPLayers into the Pentaho Community Dashboard Framework (CDF) have been performed in the context of a GSoC 2009, under the umbrella of OSGeo.

The integration work performed by the student during this period allows the display of the SOLAPLayers cartographic component together with a pivot table component in a CDF dashboard. Synchronisation between the map and the pivot table has been implemented. Further work is required in order to more properly and consistently integrate the SOLAPLayers component into CDF, but it represents a good and promising first step towards the design of a highly customisable and flexible geo-analytical dashboard framework. A live demo of the integration work performed by the student will be available shortly. The source code will also be available in the GSoC 2009 repository.

The reader is invited to consult the presentation about the research challenges dealing with the integration of the spatial component in BI tools and the design of intelligent mobile applications for better decision support. These research challenges are currently part of the research agenda of the GeoSOA research group.

This article is a short version of the original paper written for this special issue on Business Intelligence for the OSBR. The full version can be freely downloaded here.


13.7 Setting Up the Auditing System for Enterprise Manager

All operations performed by Enterprise Manager users such as creating users, granting privileges, starting a remote job like patching or cloning, need to be audited to ensure compliance with the Sarbanes-Oxley Act of 2002 (SAS 70). This act defines standards an auditor must use to assess the contracted internal controls of a service organization. Auditing an operation enables an administrator to monitor, detect, and investigate problems and enforce enterprise wide security policies.

Irrespective of how the user has logged into Enterprise Manager, when auditing is enabled, each user action is audited and the audit details are stored in a record.

For Enterprise Manager 12c, BASIC auditing is enabled by default, thus creating an audit trail of credentials being created, edited, accessed, associated and deleted. Named credentials are first-class security objects on which privileges can be granted or revoked privileges. This means that multiple Enterprise Manager administrators will be able to use and modify the credential objects. Because credentials are sensitive data that can be used to perform various operations on the systems, there is a need to audit the operations on credentials.

Enterprise Manger audits all the operations performed on credentials. The auditing information includes, but is not be limited to, the current username, credential name, operation performed, operation status success or failure. The audit logs contain information about the credential owner, action initiator, credential name, user name, and target name, job names along with the date time of the operation. Credential fields like password, private keys are never logged.

The following operations are audited:

Creating a Named Credential : Creating new Enterprise Manager credentials will be audited.

Editing a Named Credential : Editing a credential may consist of changing the username and/or the sensitive credential attributes. Credential edits may also include changing the authentication scheme for the credential.

Delete a Named Credential : Deleting a credential from Enterprise Manager will be audited.

Associating a Named Credential : A named credential can be set as a preferred credential for a credential set at the target level or at target type level. The named credential can also be reference directly from a job. All operations involving the setting of the named credentials as preferred credentials and using it in a job or deployment procedure will be audited.

Accessing a Named Credential : Enterprise Manager subsystems request credentials from the credential store to perform various system management tasks

13.7.1 Configuring the Enterprise Manager Audit System

You can configure the Enterprise Manager Audit System by using the following EM CLI commands:

enable_audit : Enables auditing for all user operations.

disable_audit : Disables auditing for all user operations.

show_operations_list : Shows a list of the user operations being audited.

show_audit_settings : Shows the audit status, operation list, externalization service details, and purge period details.

13.7.2 Configuring the Audit Data Export Service

Audit data needs to be protected and maintained for several years. The volume of audit data may become very large and impact the performance of the system. To limit the amount of data stored in the repository, the audit data must be externalized or archived at regular intervals. The archived audit data is stored in an XML file complying with the ODL format. To externalize the audit data, the EM_AUDIT_EXTERNALIZATION API is used. Records of the format <file-prefix>.NNNNN.xml, where NNNN is a number are generated. The numbers start with 00001 and continue to 99999.

You can set up the audit externalization service for exporting audit data into the file system by using the update_audit_setting -externalization_switch command.

13.7.3 Updating the Audit Settings

The update_audit_settings command updates the current audit settings in the repository and restarts the Management Service.

Example 13-22 Usage of the update_audit_setting command

-audit_switch : Enables auditing across Enterprise Manager. The possible values are ENABLE/DISABLE . Default value is DISABLE .

-operations_to_enable : Enables auditing for specified operations. Enter All to enable all operations.

-operations_to_disable : Disables auditing for specified operations. Enter All to disable all operations.

-externalization_switch : Enables the audit data export service. The possible values are ENABLE/DISABLE . Default value is DISABLE .

-directory : The database directory that is mapped to the OS directory where the export service archives the audit data files.

-file_prefix : The file prefix to be used by the export service to create the file in which audit data is to be stored.

-file_size : The size of the file on which the audit data is to be stored. The default value is 5000000 bytes.

data_retention_period : The period for which the audit data is to be retained inside the repository. The default value is 365 days.

13.7.4 Searching the Audit Data

You can search for audit data that has been generated over a specified period. You can also search for the following:

Audit details of a specific user operation or all user operations.

Audit details of operations with a Success or Failure status or All operations.

From the Setup menu, select Security and then Audit Data . The Audit Data page is displayed. Specify the search criteria in the fields and click Go . The results are displayed in the Summary table.

Figure 13-10 Audit Data Search Page

To view the details of each record that meets the search criteria, select Detailed in the View drop-down list. To drill down to the full record details, click on the Timestamp . The Audit Record page is displayed.


Pozri si video: Openlayers 6 Tutorial #6 - Layer Switcher (Október 2021).