Daha çox

GeoJSON vektor təbəqə etiketləri WMS təbəqələrinə görə sabit deyil


Xəritəmdə üç qat var. Bunlardan ikisi WMS xidmətindən (ortofoto və yaşıl linestrings), digəri isə GeoJSON mənbəyi ilə vektor qatından (nöqtələr - sarı etiketlər):

OL3Source = new ol.source.GeoJSON ({// SRID: 102067 'url': mapp ['maprouter'] + '? Act = get_layer_data & layer =' + layer_id + url_params});

GeoJSON buna bənzəyir (3 dəfə 2 eyni nöqtə var - bu verilənlər bazamızda bir problemdir):

{"type": "FeatureCollection", "features": [{"type": "Feature", "geometry": {"type": "Point", "coordinates": [- 642906.776502149, -1040547.16261086]}, " xassələri ": {" feature_data_getter_route ":" get_cf_data_overview "," feature_data_container ":" popup "," layer_id ":" celni_fotky.overview "," id ": 2}}, {" type ":" Feature "," geometry " : {"type": "Point", "coordinates": [- 647061.5440096, -1036457.97874901]}, "properties": {"feature_data_getter_route": "get_cf_data_overview", "feature_data_container": "popup", "layer_id": "cel_ .overview "," id ": 1}}, {" type ":" Feature "," geometry ": {" type ":" Point "," coordinates ": [- 642906.776502149, -1040547.16261086]}," properties " : {"feature_data_getter_route": "get_cf_data_overview", "feature_data_container": "popup", "layer_id": "celni_fotky.overview", "id": 7}}, {"type": "Feature", "geometry": { "type": "Point", "coordinates": [- 647061.5440096, -1036457.97874901]}, "properties": {"feature_data_getter_route": "get_cf_data_overview", "feature_data_container": "popup", "layer_id": "celni_f "," id ": 6}}, {" type ": "Xüsusiyyət", "həndəsə": {"növ": "Nöqtə", "koordinatlar": [- 642906.776502149, -1040547.16261086]}, "xassələr": {"feature_data_getter_route": "get_cf_data_overview", "feature_data_container": "popup" , "layer_id": "celni_fotky.overview", "id": 12}}, {"type": "Feature", "geometry": {"type": "Point", "coordinates": [- 647061.5440096, - 1036457.97874901]}, "xassələri": {"feature_data_getter_route": "get_cf_data_overview", "feature_data_container": "popup", "layer_id": "celni_fotky.overview", "id": 11}}]}

Etiket aşağıdakı kimi qurulur:

OL3Layer = yeni ol.layer.Vector ({mənbə: OL3Source, görünən: true, style: styles.get (layer_id)});

harada

yeni ol.style.Style ({image: new ol.style.Icon (({anchor: [0.5, 1.5], anchorXUnits: 'fraksiyon', anchorYUnits: 'fraksiyon', src: 'images / map / photo-marker). png ">

Yaxınlaşdırılıb:

Bunu necə düzəltmək barədə bir fikriniz varmı?


Kodunuzdan daha çoxunu görmədən bu suala cavab vermək çətindir. GeoJSON məlumatlarınız və ümumi bir WMS serverinizlə işləyən bir JSFiddle yaratdım: http://jsfiddle.net/nc7m8460/1/. Bu, tətbiqinizi düzəltməyinizə kömək etməlidir. Cəsarət hissi proqnoz tərifində bir şeyin səhv ola biləcəyini söyləyir. Proj4js istifadə etmirsinizsə (buna ehtiyacınız yoxdur, çünki göründüyü heç bir koordinatı dəyişdirmədiyiniz üçün), belə olmalıdır:

ol.proj.addProjection (yeni ol.proj.Projection ({kodu: 'EPSG: 102067', vahid: 'm', ölçü: [-1104196.9818, -1398626.3325, -276590.4283, -758318.1159]}));

Problem, üslubun qurulması və nöqtənin tam olaraq xətt üzərində olmaması idi, buna görə qəribə bir şəkildə yaxınlaşdıqda dəqiq mövqeyinə doğru sürüşürdü. Stili pikselə dəyişdirmək də kömək etdi. Fraksiya vahidləri [0.5, 1] ​​tamamilə eyni işləmişdir. Stil olmadan digər məqamları yoxladım.

yeni ol.style.Style ({şəkil: yeni ol.style.Icon (({çapa: [16, 37], anchorXUnits: 'piksel' ', // hissə | piksel çapaYUnits:' piksel '', // hissə | piksel src : 'images / map / photo-marker.png ">Bu cavabı təkmilləşdirinredaktə edilmişdir 26 Mart '15 saat 13:59cavab verdi 26 Mart '15 saat 13:48hamilhamil651 gümüş nişan6 bürünc nişan 

Etiketləmə:

ML-nin insanın intensiv cəhəti məlumatların etiketlənməsidir. Müvafiq etiketlər tez-tez maraqlanan obyektlərdə və obyektlərlə əlaqələndirilmək istədiyiniz etiketlərdə mövzu ekspertizasını tələb edir. Peyk görüntülərində etiketləmə prosesini çətinləşdirən atributlar var. Məsələn, peyk görüntüləri böyük, çox kanallı, coğrafi etiketlidir və hər piksel kanal başına səkkiz bitdən çox saxlaya bilər. Ümumi şəkil kitabxanaları ümumiyyətlə görüntüləri yaxşı idarə etmir. CosmiQ Works, açıq mənbə Coğrafi İnformasiya Sistemləri QGIS-i peyk görüntülərini idarə etmək, göstərmək və etiketləmək üçün bir çərçivə olaraq istifadə etdi. Etiket coğrafi istinadlarla bir vektor təbəqəsi kimi saxlanılır və ümumiyyətlə ya GeoJSON faylı, ya da bir Esri Formalı sənəd şəklində çıxarılır. Xüsusiyyətlərin çıxarılması üçün OpenCV standart 3 zolaqlı görüntüləri dəstəkləyir, Orfeo Toolbox isə uzaqdan zondlama tətbiqləri üçün xüsusi olaraq hazırlanmışdır. GDAL, əmr sətrindən və ya Python skriptlərindən coğrafi məlumatların işlənməsi üçün faydalı bir kitabxanadır.


Giriş

Çox etiketli öyrənmə, hər sənədin əvvəlcədən təyin olunmuş bir neçə mövzuya aid ola biləcəyi mətn kateqoriyası problemlərinə dair araşdırmalardan qaynaqlanır. hökumətsağlamlıq [26], [34]. Mətn kateqoriyasına əlavə çox etiketli öyrənmə tapşırıqları digər real dünya problemlərində də geniş yayılmışdır. Məsələn, avtomatik video izahatında hər video klip bir sıra semantik siniflərə aid ola bilər şəhərbina [28] funksional genomikdə hər bir gen bir sıra funksional siniflər ilə əlaqələndirilə bilər maddələr mübadiləsi, transkripsiyazülal sintezi [12]. Bütün bu hallarda, təlim dəstindəki hər bir nümunə bir sıra etiketlərlə əlaqələndirilir və vəzifə hər bir görünməmiş nümunə üçün müəyyən etiket dəstləri ilə təlim nümunələrini təhlil edərək bir etiket dəsti çıxarmaqdır.

Çox etiketli öyrənmə ənənəvi ikili və çox sinifli problemləri xüsusi hallar kimi əhatə edə bilər və hər bir nümunənin yalnız bir etiketə sahib olmasını məhdudlaşdırır. Çox etiketli problemlərin ümumiliyi istər-istəməz öyrənməyi çətinləşdirsə də, tədqiqatçılar çox etiketli qərar ağacları [8], [9], çox etiketli sinir kimi çox etiketli nümunələrdən öyrənmək üçün bir sıra alqoritmlər təklif etdilər. şəbəkələr [10], [45] və çox etiketli kernel metodları [2], [12], [17], [23] və s. Bu yazıda, məşhur sadəlövh Bayes təsnifatçılarını çox etiketlə məşğul olmaq üçün uyğunlaşdırırıq. Mlnb adlı yeni bir metodun, yəni çox etiketli sadəlövh Bayesin təklif olunduğu hallar. Performansını yaxşılaşdırmaq üçün iki mərhələli filtr-sarğı xüsusiyyət seçmə strategiyası da daxil edilmişdir. Konkret olaraq, birinci mərhələdə, əhəmiyyətsiz və lazımsız xüsusiyyətləri aradan qaldırmaq üçün əsas komponent analizinə (PCA) əsaslanan xüsusiyyət çıxarma üsullarından istifadə olunur. İkinci mərhələdə, təsnifat üçün xüsusiyyətlərin ən uyğun alt dəstini seçmək üçün genetik alqoritmə (GA) əsaslanan xüsusiyyət alt seçmə üsullarından istifadə olunur, burada hər bir instansiyanın müxtəlif yazıları arasındakı korrelyasiya GA fitness funksiyası ilə açıq şəkildə həll olunur.

Bu işin əsas töhfələri ikidir. Birincisi, Mlnb sadəlövh Bayesdən irəli gələn yeni bir çox etiketli öyrənmə alqoritmini təqdim edərək çox etiketli öyrənmə tədqiqat paradiqmasını zənginləşdirmişdir. İkincisi, xüsusiyyət seçmə texnikalarının ilk dəfə çox etiketli öyrənmə alqoritmlərinin dizayn prosesinə gətirilməsidir. Bölmə 5-də bildirilən eksperimental nəticələrdə göstərildiyi kimi, xüsusiyyət seçmə üsulları Mlnb-nin performansını əhəmiyyətli dərəcədə artırdı və bir sıra ən müasir çox etiketli öyrənmə alqoritmləri ilə olduqca rəqabətlidir.

Bu sənədin qalan hissəsi aşağıdakı kimi təşkil edilmişdir: Bölmə 2, çox etiketli öyrənmənin rəsmi tərifini və onun xüsusi qiymətləndirmə göstəricilərini verir. Bölmə 3 əlaqədar işləri nəzərdən keçirir. Bölmə 4 Mlnb metodunu təklif edir. Bölmə 5, bir neçə sintetik və iki real dünyadakı çox etiketli məlumat dəstləri üzərində eksperimental nəticələri bildirir. Bölmə 6, xüsusiyyət seçmə üsullarımızın etiketlərarası əlaqələrin həllində effektivliyindən bəhs edir. Nəhayət, Bölmə 7 gələcək iş üçün bir neçə məsələni ümumiləşdirir və müəyyənləşdirir.


Metodologiya

Dezinformasiya və ümumi xəbərlər

Bu işdə təsnifat problemimizi belə formalaşdırırıq: sırasıyla iki sinif xəbər məqaləsi verilmişdir D. (dezinformasiya) və M (əsas axın), bir sıra xəbər məqalələri (A_) və əlaqəli sinif etiketləri (C_ in ), və, hər yazı üçün (A_), bir sıra tweet ( Pi _=<>^ <1>, T_^ <2>, ldots > ) hər birində məqaləyə açıq şəkildə işarə edən Uniform Resurs Locator (URL) ehtiva edir (A_), sinfi proqnozlaşdırın (C_) hər məqalədən (A_) .

Zərərli və aldadıcı məlumatların düzgün bir taksonomiyası ilə bağlı böyük mübahisələr və mübahisələr var [2-4, 11, 17-19]. Bu işdə müddətə üstünlük veririk dezinformasiya daha spesifik olaraq saxta xəbərlər müxtəlif çaşdırıcı və zərərli məlumatlara istinad etmək. Bu səbəbdən a mənbə əsaslı yanaşma, analizimiz üçün müvafiq məlumatları əldə etmək üçün [2, 3, 7, 18] tərəfindən qəbul edilmiş birləşdirilmiş strategiya. Biz topladıq:

Aşağı etibarlı məzmun, yalan və yanıltıcı xəbər xəbərləri, habelə həddindən artıq təbliğat və saxtakarlığı ilə tanınan və nüfuzlu jurnalistlər və fakt çekləri tərəfindən qeyd olunan dezinformasiya məqalələri.

Əsas xəbərlər, faktiki və etibarlı məlumat verən ənənəvi xəbər agentliklərinə istinad edir.

ABŞ məlumat bazası

Onlarla ABŞ ilə əlaqəli tvitlər topladıq əsas axın xəbər saytları, yəni [20] -də təsvir olunan ən etibarlı mənbələr, Streaming API ilə birlikdə 100+ ABŞ-a keçid olan tvitlərlə əlaqəli olan Hoaxy API-yə [18] istinad etdik. dezinformasiya satış nöqtələri. Səs-küylü müşahidələri azaltmaq üçün 50-dən az tweet ilə əlaqəli məqalələri süzdük. Nəticədə verilən verilənlər bazasında üç həftə (25 Fevral 2019 - 18 Mart 2019) müddətində toplanan ümumi xəbərlər üçün ümumi 1,7 milyon we tvit və 6978 xəbər məqaləsi ilə əlaqəli dis 1,6 milyon tweet var. 5775 fərqli məqalə olan iki sinifin tarazlığı naminə üç aylıq müddət (1 yanvar 2019 - 18 mart 2019). Diffuziya senzurasının təsirləri [13] hər iki toplama prosedurunda düzgün nəzərə alınmışdır. Şəkil 1-də məqalələrin mənbəyə görə bölüşdürülməsini və hər iki xəbər sahəsi üçün siyasi qərəzi təmin edirik.

ABŞ üçün mənbə başına məqalə sayının paylanması (a) dezinformasiya və (b) ümumi xəbərlər. Rənglər hər mənbənin siyasi qərəzli etiketini göstərir

Mühafizəkarların və liberalların onlayn sosial platformalarda fərqli davranışlar nümayiş etdirdikləri bildirildiyi kimi [21-23], daha sonra [3] 'də təsvir olunan proseduru izləyərək ABŞ-ın fərqli satış nöqtələrinə (və bu səbəblə xəbər məqalələrinə) siyasi qərəzli bir etiket verdik. Metodumuzun möhkəmliyini qiymətləndirmək üçün təsnifat təcrübələrini yalnız dezinformasiya və əsas sahələrin həm sol tərəfli (və ya sağ tərəfli) çıxışlarında təlimlər keçirərək, həm də bütün mənbələrdə test edərək apardıq. Əlavə test olaraq, həddindən artıq uyğunlaşmamaq üçün nümunələr baxımından digərlərindən üstün olan xüsusi mənbələri istisna etdik.

İtalyan verilənlər bazası

İtalyan ssenarisinə aid olan şey üçün ilk olaraq 3 həftəlik bir müddətdə (19 Aprel 2019 - 5 May 2019) Streaming API ilə tvitlər topladıq, URL-lərin daxilində URL-ləri olanları rəsmi internet saytlarına işarə edərək [24, 25] bunlar İtaliyada qəzet tirajının yoxlanılması üçün dərnək tərəfindən verilən siyahıya uyğundur (Accertamenti Diffusione Stampa). Dipnot 1 Əvəzində [26] tərəfindən təqdim olunan 60-dan çox italyan dezinformasiya veb saytına URL-lər daxil olan eyni Twitter son nöqtəsini istifadə edərək 2019-cu ilin yanvar ayından bəri davamlı toplanan bir sıra tweet əldə etmək üçün məlumat bazasına müraciət etdik. ) bunlar İtaliyadakı məlumat yoxlama saytları və agentliklərindən (PagellaPolitica.it, Bufale.net və Butac.it) qara siyahılar istifadə edilərək əldə edilmişdir. Balanslı dərslər almaq üçün ümumi xəbərlərə (5 aprel 2019 - 5 may 2019) qədər daha uzun müddət ərzində toplanan məlumatları saxladıq. Hər iki halda da, ümumilikdə 50-dən az tviti olan məqalələri süzdük, bu verilənlər bazası 227 xəbər məqaləsinə uyğun ∼ 160k əsas tweet və 237 xəbər məqaləsinə uyğun olaraq 100k dezinformasiya tviti ehtiva edir. Şəkil 2-də məqalələrin hər iki xəbər sahəsi üçün fərqli mənbələrə görə paylanmasını təmin edirik. ABŞ verilənlər bazasında olduğu kimi, əvvəllər dərc edilmiş tvitləri xaric edərək senzuranın təsirlərini [13] nəzərə aldıq (sol senzura) və ya iki həftədən sonra (sağ senzura) toplama prosesinin əvvəlindən.

İtalyan üçün mənbə başına məqalə sayının paylanması (a) ümumi və (b) dezinformasiya xəbərləri

İki ölkədə Twitter-də paylaşılan fərqli həcmli xəbərlər həm ABŞ və İtaliyanın fərqli nüfus sayına görə (320'ya qarşı 60 milyon) həm də Twitter platformasının (və ümumiyyətlə sosial medianın) xəbər istehlakı üçün fərqli istifadəsinə görədir [ 27]. Bu əsərdə təhlil olunan hər iki məlumat dəsti istəyə əsasən müəlliflərdən əldə edilə bilər.

Twitter qarşılıqlı təsirlərinin pozulması

Twitter-də fərqli sosial qarşılıqlı əlaqələri beş kateqoriyaya görə ayırırıq:

Zikr (M): Bir tvit daxilində başqa bir hesabın Twitter istifadəçi adı, əvvəlində “@” işarəsi var

Cavab (R): Başqa bir hesabın tweetinə cavab

Retweet (RT): Bir tweet yenidən göndərilir

Sitat (Q): Şərh əlavə edərək retweeting

Civildəmək (T): Bir məqalə URL-i olan bir tweet göndərmək.

Cədvəl 1-də xəbərlər arasında fərqli Twitter qarşılıqlı əlaqələrinin əsas cəhətləri ilə əlaqəli məlumat dəstlərimizin sıralanmasını göstəririk. Xəbər paylaşımının daha çox hər iki ölkədə və iki məqalədə də məqalələrin retweeting və tweet'lərini əhatə etdiyini görürük.

Fərqli Twitter hərəkətləri ilə əlaqədar olaraq, istifadəçilər ilk növbədə retweet və qeydlərdən istifadə edərək bir-biri ilə qarşılıqlı əlaqə qururlar [22]. Birincisi əsas nişan fəaliyyətidir və təsdiqləmə forması kimi istifadəçilərə digər istifadəçilər tərəfindən yaradılan məzmunu yenidən yayımlamağa imkan verir [28]. Bundan əlavə, B düyünü A düyünü təkrarladıqda, A-dan alınan məlumatların B-nin Twitter lentində göründüyünə dair gizli bir təsdiqimiz var [16]. Sitatlar sadəcə şərhləri olan xüsusi bir retweet hadisəsidir. Adları çəkilənlər bir tweetin əvvəlində yerləşdikləri və cavab olaraq bilinən ilk vəziyyətdə üçüncü bir şəxsin bir şəxsə müraciət etməsinə və ya cavab olaraq bilinmələrinə icazə verdikləri üçün adətən şəxsi söhbətlər daxildir. bir tweetin gövdəsi [22]. Sözügedən şəbəkə adətən ənənəvi təqibçi / sonrakı münasibətlər qrafiki ilə müqayisədə Twitter istifadəçiləri arasındakı qarşılıqlı əlaqələrin daha güclü bir versiyası kimi qəbul edilir [29].

Diffuziya şəbəkələrinin qurulması

[30] -da təsvir olunan qeydlərdən istifadə edərək Twitter diffuziya şəbəkələri üçün çox qatlı bir nümayəndəlik tətbiq edirik. Sosioloqlar həqiqətən on illər əvvəl eyni fərdlər arasında müxtəlif növ əlaqələrin istifadə olunduğu bir çox sosial şəbəkə quraraq sosial sistemlərin öyrənilməsinin vacib olduğunu qəbul etdilər [31]. Bu səbəbdən, hər bir xəbər məqaləsi üçün dörd fərqli təbəqədən ibarət çox qatlı bir diffuziya şəbəkəsi qururuq; bunlar hər biri Twitter platformasında sosial qarşılıqlı əlaqə növü üçün, yəni retweet (RT), cavab (R), sitat (Q) və qeyd (M) ), Şəkildə göstərildiyi kimi 3. Bu şəbəkələr mütləq deyildir düyünə uyğun, yəni istifadəçilər bəzi təbəqələrdə itkin ola bilər. Qlobal şəbəkə xüsusiyyətlərinə (məsələn, zəif əlaqəli komponentlərin sayı) ciddi təsir göstərə biləcəyi üçün verilmiş bir təbəqədə aktiv olmayan istifadəçiləri təmsil etmək üçün “dummy” düyünlər daxil etmirik. Alternativ olaraq hər çox qatlı diffuziya şəbəkəsinə ayrı-ayrı qrafiklər toplusu kimi baxıla bilər [30], çünki qlobal şəbəkə xüsusiyyətləri hər təbəqə üçün ayrı-ayrılıqda hesablandığı üçün bunların mövcudluğundan təsirlənmir. qatarası kənarları, buna baxmayaraq məlumatların təbəqələr arasında yayılmasına imkan verir.

Dörd qatlı bir Twitter çox qatlı diffuziya şəbəkəsinin vizuallaşdırılması

Çox qatlı nümayəndəliyimizdə hər təbəqə, təbəqə tipinin hər bir tweetinə kənar və düyünlər əlavə etdiyimiz istiqamətləndirilmiş bir qrafikdir. İnformasiya axınının istiqaməti - beləliklə kənar istiqamət - bəzi təbəqələr üçün birmənalıdır, məsələn. RT, eyni başqaları üçün doğru deyil. Burada təsvir olunan ənənəvi yanaşmanı təqib edirik. [7, 16, 19, 22] -də kənarların istiqamətini təyin etmək. RT təbəqəsi üçün: hər istifadəçi a retweets hesabı b əvvəlcə qovşaq əlavə edirik ab RT qatında onsuz da mövcud deyilsə, gedən bir kənar qururuq b üçün a mövcud deyilsə. Eynilə digər təbəqələr üçün də: R qatı kənarları istifadəçidən ayrılır a (cavab verən) istifadəçiyə b, Q qat kənarları üçün istifadəçidən keçin b (kim tərəfindən sitat gətirilir) istifadəçiyə a və M qatının kənarları istifadəçidən keçər a (qeyd edən) istifadəçiyə b. Diqqət yetirin ki, konstruksiyaya görə, təbəqələrimiz “təcrid olunmuş tvitlərə” cavab verdikləri təcrid olunmuş qovşaqları, yəni digər istifadəçilərlə qarşılıqlı əlaqəsi olmayan tvitləri daxil etmir. Bununla birlikdə, bunlar verilənlər bazamızda mövcuddur və onların sayı aşağıda göstərildiyi kimi təsnifat üçün istifadə olunur.

Qlobal şəbəkə xüsusiyyətləri

Hər bir şəbəkə səviyyəsini bir xüsusiyyət xüsusiyyətləri ilə kodlayan bir sıra qlobal şəbəkə göstəricilərindən istifadə etdik. Sonra hər çox qatlı şəbəkəni tək bir xüsusiyyət vektoru ilə təmsil etmək üçün sadəcə birləşdirdik. Aşağıdakı qlobal şəbəkə xüsusiyyətlərindən istifadə etdik:

Güclü əlaqəli komponentlərin sayı (SCC): yönləndirilmiş qrafın möhkəm bir şəkildə əlaqələndirilmiş komponenti, hər bir zirvə cütü üçün hər bir istiqamətdə bir yol olduğu (u, v ) maksimum (alt) qrafdır ( (u rightarrow v ), (v sağ arrow u )).

Ən böyük möhkəm əlaqəli komponentin ölçüsü (LSCC): müəyyən bir qrafikin ən güclü əlaqəli komponentindəki qovşaqların sayı.

Zəif əlaqəli komponentlərin sayı (WCC): yönləndirilmiş bir qrafın zəif əlaqəli komponenti, hər bir zirvə cütü üçün ((u, v) ) kənar istiqamətləri nəzərə almadan bir yolun ((u sola açılan v )) olduğu maksimum (alt) qrafdır.

Ən Zəif Bağlı Komponentin Ölçüsü (LWCC): müəyyən bir qrafikin zəif əlaqəli ən böyük komponentindəki qovşaqların sayı.

Ən Zəif Bağlı Komponentin Çapı (DWCC): bir qrafın ən zəif əlaqəli komponentindəki (istiqamətləndirilməmiş versiyası) iki qovşaq arasındakı ən böyük məsafə (ən qısa yolun kənarlarının sayı).

Orta Kümələnmə əmsalı (CC): bir qrafadakı bütün qovşaqların yerli yığılma əmsallarının ortalaması, bir qovşaqın yerli qruplaşma əmsalı, qonşuluğunun tam bir qrafiq (və ya bir klik) olmağa nə qədər yaxın olduğunu müəyyənləşdirir. [32] uyğun olaraq hesablanır.

Əsas K nüvəli Sayı (KC): bir qrafikin K-nüvəsi [12] daxili dərəcə qovşaqlarını ehtiva edən maksimum alt qrafdır K və ya daha çox ana K nüvəsi ən yüksək dəyərdir K (yönləndirilmiş qrafiklərdə ümumi dərəcə nəzərə alınır).

Sıxlıq (d): yönəldilmiş qrafiklər üçün sıxlıq (d = frac <| E |> <| V || V-1 |> ), burada (| E | ) kənarların sayı və (| V | ) qrafdakı zirvələrin sayı, sıxlığı kənarları olmayan bir qrafik üçün 0-a, tam qrafika üçün isə 1-ə bərabərdir.

Zəif əlaqəli ən böyük komponentin (SV) struktur virallığı: bu tədbir [13] -də bir şəlalə ağacındakı bütün cüt qovşaqlar arasındakı orta məsafə və ya bərabər olaraq, qovşaqların ortalama dərinliyi kimi, bütün qovşaqlar üzərində ortalama olaraq (| V | & gt 1 ) zirvələr, ( mathrm= frac <1> <| V || V-1 |> cəmi _ cəmi _ d_) harada (d_) düyünlər arasındakı ən qısa yolun uzunluğunu göstərir mənj. Bu, qrafikin Wiener indeksini [33] hesablamağa və ( frac <1> <| V || V-1 |> ) əmsalı ilə vurmağa bərabərdir. Bizim vəziyyətimizdə, onu ən zəif əlaqəli komponentin yönləndirilməmiş ekvivalent qrafiki üçün hesabladıq və (| V | = 1 ) olduqda 0 olaraq təyin etdik.

Bütün xüsusiyyətləri hesablamaq üçün networkx Python paketindən [34] istifadə etdik. Bir təbəqə boş olduqda, sadəcə bütün xüsusiyyətlərini 0 olaraq təyin edirik. Hər təbəqə üçün yuxarıda göstərilən doqquz xüsusiyyəti hesablamağa əlavə olaraq, təcrid olunmuş tvitlər haqqında məlumatların kodlaşdırılması üçün iki göstərici də əlavə etdik T təcrid olunmuş tvitlərin (verilmiş bir xəbər məqaləsinin URL-lərini ehtiva edən) və sayı U bu tvitləri yazan unikal istifadəçilərin. Buna görə də, müəyyən bir məqalə üçün bir diffuziya şəbəkəsi (9 cdot 4 + 2 = 38 ) girişləri olan bir vektor ilə təmsil olunur.

Şəbəkə xüsusiyyətləri və təbəqələrinin təfsiri

Sözügedən şəbəkə xüsusiyyətləri, sosial ayaq izləri baxımından keyfiyyətcə aşağıdakı şəkildə izah edilə bilər (Şəkil 4-dəki illüstrasiya nümunələrinə baxın): bu xüsusi şəbəkə sinifində, SCC diffuziya qatının ölçüsü (yəni qovşaq sayı) ilə korrelyasiya edir, çünki əksər hallarda xəbərlərin yayılması yayım şəklində baş verir, yəni.tweetlər digər qarşılıqlı təsirlərdə üstünlük təşkil edir. LSCC bu cür mono istiqamətliliyin bir şəkildə pozulduğu halları ayırd etməyə imkan verir. WCC hər bir xəbər məqaləsinə aid fərqli diffuziya şəlalələrinin sayına (təxminən) bərabərdir; bəzi kaskadların qeyd, sitat və cavab kimi Twitter qarşılıqlı əlaqəsi ilə birləşdiyi hallara uyğun istisnalar istisna olmaqla. LWCCDWCC ən böyük kaskadın ölçüsünə və dərinliyinə bərabərdir. CC müəyyən bir diffuziya şəbəkəsindəki qonşu istifadəçilərin əlaqə səviyyəsinə cavab verir KC şəbəkədəki ən nüfuzlu istifadəçilər qrupunu müəyyənləşdirir [19]. Nəhayət, d istifadəçilər arasında həqiqətən aktivləşdirilmiş və potensial əlaqələrin nisbətlərini təsvir edir SV bir xəbərin tək və böyük bir yayımla populyarlıq qazandığını və ya bir neçə nəsil arasında daha viral bir şəkildə ortaya çıxdığını göstərir [13].

Difuziya təbəqələrinin iki nümunəvi nümunəsi. Solda: Eyni xəbərlər yuxarıdan aşağıya doğru bir şəkildə iki fərqli kaskad boyunca yayılır. Beləliklə, SCC, qovşaqların sayına bərabərdir, çünki güclü birləşdirilmiş hər bir komponent tək bir qovşaqdır, WCC isə fərqli kaskadların sayıdır. Sağda: İki şəlalə ümumi bir qovşaqda birləşir (beləliklə WCC = 1) və əlavə olaraq mono istiqamətlilik bir döngə tərəfindən pozulur (beləliklə SCC qovşaq sayından azdır)

Məhdudiyyətlər

Əvvəlcədən də qeyd edildiyi kimi, məqalələri mənbə səviyyəsində etiketləmək üçün mövzu ilə bağlı böyük bir ədəbiyyat korpusuna güvənmək üçün kobud bir yanaşma istifadə edirik. İnanırıq ki, bu, hazırda ən etibarlı təsnifat yanaşmasıdır, baxmayaraq ki, açıq məhdudiyyətlərə səbəb olur, çünki dezinformasiya vasitələri həqiqət hekayələrini də dərc edə bilər və eyni zamanda yalnış məlumatlar bəzən əsas mediada da bildirilir [4]. Ayrıca, xəbər mənbələri seçimini nəzərə alaraq, metodikamızın dezinformasiya olmayan yerlərdə yayımlanan dezinformasiya ilə faktiki, lakin ümumi olmayan xəbərləri təsnif edə biləcəyini test edə bilmərik [11].

Yanaşmamızdakı digər bir vacib cəhət, Twitter-də xəbər məqalələri ilə əlaqəli bölüşmə kaskadlarını tam şəkildə tutma qabiliyyətidir. [35] bildirilmişdir ki, Twitter axın nöqtəsi, verilən bir sorğu ilə uyğunlaşan tvitləri, gündəlik gündəlik həcmin% 1-dən çox olduğu təqdirdə paylaşılan tvitlərin Dipnot 2-dən çox olduğu təqdirdə süzgəcdən keçirir və bu günlərdə təxminən (5 cdot 10 ^ <8> ) Ancaq hər gün hər gün 10-dan az 6 tweet topladığımız üçün bu məsələdə iştirak etmədik və beləliklə sorğumuza uyğun tweetlərin 100% -ni topladıq.

Ədəbiyyatda geniş mənimsənilmiş bir yanaşmadan istifadə edərək Twitter diffuziya şəbəkələri qurduq [3, 7, 19]. Twitter Streaming API-də alınmasına icazə verməyən qaçılmaz bir məhdudiyyət olduğunu qeyd edirik doğru təkrar tweet yazmaq, çünki yenidən tvitlər həmişə orijinal mənbəyə işarə edir və arada təkrar tweet yazan istifadəçilərə yox [10, 13], buna görə də Twitter-in məlumatların ictimaiyyətə açıq olmasına əsaslanan yeganə uyğun yanaşmanı qəbul edirik. Bununla birlikdə, bir çox təbəqə ilə fərqli qarşılıqlı əlaqələri ayırmaqla, bu məhdudiyyətin qlobal şəbəkə xüsusiyyətləri üzərində təsirini potensial olaraq təməl xəttimizdə istifadə olunan yanaşma ilə azaldırıq.

Nəhayət, bu işin bir məhdudiyyəti, metodologiyamızı digər texnikalarla birbaşa müqayisə etməməyimizdir, eyni verilənlər bazası (lar) ında bir neçə təsnifat ölçümünün qiymətləndirilməsinə qədər davam edən bir məşqdir. [36] -da hərtərəfli müzakirə edildiyi kimi, saxta xəbərlərin təsnifatçılarını etibarlı şəkildə müqayisə etmək problemi açıqdır və bu işin əhatə dairəsindən çıxan bir çox problemlə üzləşir. Sadəcə, təsnifat çərçivəmizin performansının kəmiyyət baxımından (AUROC dəyəri baxımından) saxta xəbərlərin aşkarlanması üçün ən son dərəcə dərin öyrənmə modelləri ilə müqayisə olunduğunu qeyd edirik [14, 37]. Bununla birlikdə, bu nəticə yalnız göstəricidir, çünki fərqli məlumat dəstlərində və bir halda [37] təsnifat tapşırığının fərqli fokusunda əldə edilmişdir.


Giriş

SARS-CoV-2 və nəticədə ortaya çıxan COVID-19 xəstəliyi 21-ci əsrin ən böyük problemlərindən biridir. Bu nəşr zamanı təxminən 43 milyon adam müsbət test keçirdi və nəticədə 1,2 milyon insan öldü [1]. Bu virusla mübarizə aparmaq səhiyyə işçilərinin qəhrəmanlığı, sosial təşkilat və texnoloji həllər tələb edir. Bu anket, Dərin Öyrənməyə vurğu edilərək, texnoloji həllərin inkişafına yönəlmişdir. Dərin Öyrənmənin Yayılma Proqnozu, Dezinformasiya Algılama və ya İctimai Həssas Analiz kimi sosial təşkilatı asanlaşdırdığı bir çox hadisəni də vurğulayırıq. Deep Learning dünya çempionunu Go [2] məğlub edərək, Rubik & # x02019s küpünü həll etmək üçün robot əlini idarə edərək [3] və boş mətn istəklərini tamamlayaraq [4] böyük diqqət qazandı. Dərin Öyrənmə çox sürətlə inkişaf edir, amma bu texnologiyanın hazırkı vəziyyəti nədir? Dərin Öyrənmə hansı problemləri həll etmə qabiliyyətinə malikdir? Dərin Öyrənmənin tətbiqi üçün COVID-19 problemlərini necə ifadə edirik? Bu sualları bir çox cəhətdən COVID-19 ilə mübarizə aparan Dərin Öyrənmə tətbiqetmələrinin obyektivi ilə araşdırırıq.

Bu sorğunun məqsədi COVID-19 tədqiqatında Dərin Öyrənmənin istifadəsini göstərməkdir. Töhfələrimiz də aşağıdakılardır:

Bu, COVID-19 tətbiqetmələrini yalnız Dərin Öyrənmə obyektivindən izləyən ilk anketdir. Məlumat Elmi və ya Maşın Öyrənməsindəki COVID-19 tətbiqetmələrindəki digər araşdırmalarla müqayisədə Dərin Öyrənmə haqqında geniş məlumat veririk.

Araşdırılan hər bir tətbiq sahəsi üçün verilmiş məlumatların dərin bir sinir şəbəkəsinə necə daxil edildiyini və öyrənmə tapşırıqlarının necə qurulduğunu ətraflı təhlil edirik.

Təbii Dil İşləmə, Kompüter Vizyonu, Həyat Elmləri və Epidemiologiya kimi məlumat sahələrində tətbiqlərin tam siyahısını təqdim edirik. ACL 2020 NLP-COVID atelyesindən məqalələr tərtib edərək, COVID-19 tədqiqat sənədləri üçün Ədəbiyyat Madenciliyindəki işlərə xüsusi diqqət ayırırıq.

Nəhayət, İnterpretasiya, Ümumiləşdirmə Ölçüləri, Məhdud Etiketli Verilərdən Öyrənmə və Məlumat Gizliliyi daxil olmaqla Dərin Öyrənmənin ümumi məhdudiyyətlərini nəzərdən keçiririk. Bu məhdudiyyətlərin araşdırılan COVID-19 tətbiqetmələrinin hər birini necə təsir etdiyini izah edirik. Əlavə olaraq bu məsələlərlə bağlı araşdırmanı da vurğulayırıq.

Sorğumuz dörd əsas hissəyə bölünmüşdür. Maşın Öyrənmə və ya Mütəxəssis Sistemlər kimi digər Süni Zəka texnologiyaları ilə əlaqəni izah etmək üçün Dərin Öyrənməyə dair & # x0201cBackground & # x0201d ilə başlayırıq. Bu fonda SARS-CoV-2 və COVID-19-a qısa bir baxış da verilir. Növbəti hissədə COVID-19 & # x0201d üçün Dərin Öyrənmə tətbiqetmələrinin siyahısı və izah olunur. Mətn və ya şəkillər kimi giriş məlumat növünə görə araşdırılmış tətbiqetmələr təşkil edirik. Bu, COVID-19-da molekulyar, klinik və cəmiyyət səviyyəsində tətbiqetmələri təşkil edən digər anketlərdən fərqlidir [5, 6].

Dərin Öyrənmə perspektivindən tətbiq məlumatlarını giriş məlumatları növü ilə təşkil etmək, oxucuların tədqiqat üçün ümumi çərçivələri anlamalarına kömək edəcəkdir. Birincisi, bu, dil və ya şəkillərin Dərin Sinir Şəbəkəsinə necə daxil edildiyini izah etməkdən çəkinir. İkincisi, eyni tipli giriş məlumatları ilə işləyən tətbiqetmələrin çox oxşar cəhətləri var. Məsələn, Biyomedikal Ədəbiyyat Mədənçiliyinə və Yanlış Məlumatın Aşkarlanmasına ən müasir yanaşmalar həm mətn məlumatları ilə işləyir. Transformer sinir şəbəkəsi modellərinin istifadəsi və dil modelləşdirmə kimi tanınan öz-özünə nəzarətli bir nümayəndəlik öyrənmə sxeminə güvənmə kimi bir çox ümumi cəhətləri var. Beləliklə, araşdırılan COVID-19 tətbiqetmələrini & # x0201cNatural Language Processing & # x0201d, & # x0201cComputer Vision & # x0201d, & # x0201cLife Sciences & # x0201d, & # x0201cEpidemiology & # x0201d. Ancaq Həyat Elmlərindəki tətbiq sahələrimiz bu quruluşdan uzaqlaşır. Həyat Elmləri daxilində cədvəlli Elektron Sağlamlıq Qeydləri (EHR), mətn klinik qeydləri, mikroskopik şəkillər, kategorik amin turşusu ardıcıllığı və qrafik quruluşlu şəbəkə təbabəti kimi bir sıra giriş məlumat növlərini təsvir edirik.

Bu tətbiqetmələrdə istifadə edilən məlumat dəstləri ümumi ölçü məhdudiyyətini paylaşmağa meyllidir. Sürətli bir pandemiya reaksiya vəziyyətində, Tibbi Görüntünün Təhlili və ya Yayılma Proqnozu üçün geniş məlumat dəstləri yaratmaq xüsusilə çətindir. Bu problem, Sual Cavablandırılması və ya Dezinformasiya Algılama kimi Ədəbiyyat Madenciliği tətbiqlərində də özünü göstərir. Ədəbiyyat mədən məlumatları Dərin Öyrənmə üçün maraqlı bir vəziyyətdir, çünki nəşr olunan çox sayda sənədimiz var. Belə böyük bir etiketlənməmiş məlumat dəstinə malik olmasına baxmayaraq, sual cavablandırması və ya fakt doğrulama məlumat dəstləri kimi aşağı axın tətbiqləri müqayisədə olduqca kiçikdir. Dərin Öyrənmə üçün əvvəlcədən təlimin əhəmiyyətini davamlı müzakirə edəcəyik. Bu paradiqma ya nəzarətli, ya da öz nəzarətli köçürmə təliminə əsaslanır. Bu məqalədə araşdırılan əsas əhəmiyyət kəsb edən, domen daxilində məlumatların olmasıdır. Biyomedikal ədəbiyyat korpusu və ya Tibbi Görüntü Analizi üçün CheXpert radioqrafiya verilənlər bazası [7] kimi biraz kənarda qalmış kimi etiketlənməmiş olsa da, bu cür məlumatların mövcudluğu yüksək performans əldə etmək üçün hər şeydən vacibdir.

Dərin Öyrənmənin hər bir tətbiqini COVID-19-a izah edərkən, məlumatların tapşırığına və vəzifəsinə vurğu edirik. Tapşırıq təsvirləri əsasən bir COVID-19 tətbiqetməsinin bir öyrənmə problemi olaraq necə qurulduğunu təsvir edir. Biz yalnız Dərin Öyrənmə tətbiqetmələrinə yönəlmişik və beləliklə xam və ya yüksək ölçülü məlumatların təqdimat öyrənilməsinə istinad edirik. Təmsil öyrənməsinin tərifi və icmalı & # x0201cBackground & # x0201d bölməsində verilmişdir. Aşağıdakı siyahıda sorğuda iştirak edən tətbiqlərdə tapılan fərqli öyrənmə variantları tez bir zamanda təsvir olunur:

Nəzarətli Öyrənmə, proqnozlaşdırılan və əsas həqiqət yazıları ilə əlaqədar bir zərər funksiyasını optimallaşdırır. Bu əsas həqiqət yazıları əl ilə izahat tələb edir.

Nəzarət olunmayan öyrənmə etiketlərdən istifadə etmir. Buraya məlumatlarda daxili quruluş axtaran klasterləşdirmə alqoritmləri daxildir.

Özünə Nəzarətli Öyrənmə, proqnozlaşdırılan və əsas həqiqət yazıları ilə əlaqədar bir zərər funksiyasını optimallaşdırır. Nəzarət olunan Təlimdən fərqli olaraq, bu etiketlər insan izahatından çox, ayrı bir hesablama prosesindən hazırlanır.

Yarı Nəzarətli Öyrənmə təmsil etmə öyrənməsi üçün insan etiketli və etiketlənməmiş məlumatların qarışığından istifadə edir.

Transfer Learning, əvvəlki bir tapşırıqdan öyrənilən nümayəndəliyi ilə təhsili başlanğıc etməyi təsvir edir. Bu əvvəlki vəzifə ən çox & # x0201cTəbii Dil İşləmə & # x0201d ya da & # x0201cComputer Vision & # x0201d-də İnternet miqyaslı dil modelləşdirməsində ImageNet-based nəzarətli öyrənmədir.

Çox Tapşırıqla Öyrənmə eyni vaxtda çoxsaylı itki funksiyasını optimallaşdırır, ümumiyyətlə yeniləmələri bir-birinə ayırır və ya hər itkidən ziddiyyətli dərəcələrə keçməmək üçün qanunauyğunluq cəzalarını tətbiq edir.

Zəif Nəzarətli Öyrənmə, diqqətlə etiketlənmiş məlumatlardan daha çox, heuristically etiketli məlumatlarla idarə olunan öyrənməyə aiddir.

Multi-Modal Learning describes representation learning in multiple data types simultaneously, such as images and text or images and electronic health records.

Reinforcement Learning optimizes a loss function with respect to a series of state to action predictions. This is especially challenging due to credit assignment in the sequence of state to action mappings when receiving sparse rewards.

It is important to note the distinction between these learning task constructions in each of our surveyed applications. We further contextualize our surveyed applications with an overview of “Limitations of Deep Learning”. These limitations are non-trivial and present significant barriers for Deep Learning to fight COVID-19 related problems. Solutions to these issues of “Interpretability”, “Generalization metrics”, “Learning from limited labeled datasets”, and �ta privacy” will be important to many applications of Deep Learning. We hope describing how the surveyed COVID-19 applications are limited by these issues will develop intuition about the problems and motivate solutions. Finally, we conclude with a 𠇍iscussion” and 𠇌onclusion” from our literature review. Our Discussion describes lessons learned from a comprehensive literature review and plans for future research.

Deep Learning for “Natural Language Processing” (NLP) has been extremely successful. Applications for COVID-19 include Literature Mining, Misinformation Detection, and Public Sentiment Analysis. Searching through the biomedical literature has been extremely important for drug repurposing. A success case of this is the repurposing of baricitinib [8], an anti-inflammatory drug used in rheumatoid arthritis. The potential efficacy of this drug was discovered by querying biomedical knowledge graphs. Modern knowledge graphs utilize Deep Learning for automated construction. Other biomedical literature search systems use Deep Learning for information retrieval from natural language queries. These Literature Mining systems have been extended with question answering and summarization models that may revolutionize search altogether. We additionally explore how NLP can fight the “infodemic” by detecting false claims and presenting evidence. NLP is also useful to evaluate public sentiment about the pandemic from data such as tweets and provide tools for social scientists to analyze free-text response surveys.

𠇌omputer Vision” is another mature application domain of Deep Learning. The Transformer revolution in Natural Language Processing largely owes its success to Computer Vision’s pioneering into large datasets, massive models, and the utilization of hardware that accelerates parallel computation, namely GPUs [9]. Computer Vision applications to COVID-19 include Medical Image Analysis, Ambient Intelligence, and Vision-based Robotics. Medical Image Analysis has been used to supplement RT-PCR testing for diagnosis by classifying COVID-induced pneumonia from chest X-rays and CT scans. Haque et al. [10] recently published a survey on Computer Vision applications for physical space monitoring in hospitals and daily living spaces. They termed these applications 𠇊mbient Intelligence”. This is an interesting phrase to encompass a massive set of more subtle applications such as automated physical therapy assistance, hand washing detection, or surgery training and performance evaluation. This section is particularly suited to our discussion on Data Privacy in “Limitations of Deep Learning”. We also look at how Vision-Based Robotics can ease the economic burden of COVID-19, as well as automate disinfection.

Deep Learning can improve virus spread models used in 𠇎pidemiology”. Our coverage of these models starts with 𠇋lack-box” forecasting. These models use a history of infections, as well as information such as lockdown phase, to predict future cases or deaths. We describe how this varies based on region specificity. We will then look at adding more structure to the population model. The most well-known example of this are Susceptible, Infected, and Recovered (SIR) models. The illustrative SIR model describes how a population transitions from healthy or “Susceptible”, to “Infected”, and “Recovered” through a set of three differential equations. These equations solve for the infection and recovery rates from data of initial and recovered populations. The challenge with these SIR models is that they have limiting assumptions. We will explore how Deep Neural Networks have been used to solve differential equations and integrate the non-linear impact of quarantine or travel into these SIR models. For even finer-grained predictions, we looked into the use of Contact Tracing, potentially enabling personalized risk of infection analysis.

The application of Deep Learning for “Life Sciences” is incredibly exciting, but still in its early stages. RT-PCR has become the gold standard for COVID-19 testing. This viral nucleic acid test utilizes primers and transcription enzymes to amplify a chunk of DNA such that fluorescent probes can signal the presence of the viral RNA. However, these tests have a high false negative rate. We will look at studies that sequence this RNA and deploy deep classification models, use Computer Vision to process expression, as well as studies that design assays to cover a wide range of genomes. New diagnostic tools are being developed with detailed biological and historical information about each patient. This is known as Precision Medicine. Precision Medicine in COVID-19 applications looks at predicting patient outcome based on patient history recorded in Electronic Health Records (EHR), as well as miscellaneous biomarkers such as blood testing results. This is another section that is highly relevant for our cautionary “Limitations of Deep Learning” with respect to Data Privacy.

Another exciting application area is the intersection of Deep Learning and molecular engineering. Deep Learning has received massive press for the development of AlphaFold. Given the 1-dimensional string of amino acids, AlphaFold predicts the resulting 3-D structure. These models have been used to predict the 3-D structure of the spike proteins on the outer shell of the coronavirus, as well as its other proteins. Having a model of this structure allows biochemists to see potential binding targets for drug development. These bindings can prevent the virus from entering human cells through membrane proteins such as ACE2. We can use Deep Learning to suggest potential binding drug candidates. Developing new drugs will have to undergo a timely and costly clinical trial process. For this reason, COVID-19 research has been much more focused on drug repurposing to find treatments.

Within the scope of Natural Language Processing, we present the automated construction of biomedical knowledge graphs from a massive and rapidly growing body of literature. These graphs can be used to discover potential treatments from already approved drugs, an application known as drug repurposing. Drug repurposing is highly desirable because the safety profile of these drugs has been verified through a rigorous clinical trial process. Biomedical experts can search through these knowledge graphs to find candidate drugs. However, another interesting way to search through these graphs is to set up the problem as link prediction. Given a massive graph of nodes such as proteins, diseases, genes and edges such as 𠇊 inhibits B”, we can use graph representation learning techniques such as graph neural networks to predict relations between nodes in the graph.

Our final application area surveyed is the use of Deep Learning for 𠇎pidemiology”. How many people do we expect to be infected with COVID-19? How long do we have to quarantine for? These are query examples for our search systems, described as NLP applications, but epidemiological models are the source of these answers. We will begin exploring this through the lens of 𠇋lack-box” forecasting models that look at the history of infections and other information to predict into the future. We will then look at SIR models, a set of differential equations modeling the transition from Susceptible to Infected to Recovered. These models find the reproductive rate of the virus, which can characterize the danger of letting herd immunity develop naturally. To formulate this as a Deep Learning task, a Deep Neural Network approximates the time-varying strength of quarantine in the SIR model, since integrating the Exposed population would require extremely detailed data. Parameter optimizers from Deep Learning such as Adam [11] can be used to solve differential equations as well. We briefly investigate the potential of Contact Tracing data. Tracking the movement of individuals when they leave their quarantine could produce incredibly detailed datasets about how the virus spreads. We will explore what this data might look like and some tasks for Deep Learning. This is another application area that relates heavily to our discussion of data privacy in “Limitations of Deep Learning”.

These applications of Deep Learning to fight COVID-19 are promising, but it is important to be cognizant of the drawbacks to Deep Learning. We focus on the issues of “Interpretability”, “Generalization metrics”, “Learning from limited labeled datasets”, and �ta Privacy”. It is very hard to interpret the output of current Deep Learning models. This problem is further compounded by the lack of a reliable measure of uncertainty. When the model starts to see out-of-distribution examples, data points sampled from a different distribution than the data used to train the model, most models will continue to confidently misclassify these examples. It is very hard to categorize how well a trained model will generalize to new data distributions. Furthermore, these models can fail at simple commonsense tasks, even after achieving high performance on the training dataset. Achieving this high performance in the first place comes at the cost of massive, labeled datasets. This is unpractical for most clinical applications like Medical Image Analysis, as well as for quickly building question-answering datasets. Finally, we have to consider data privacy with these applications. Will patients feel comfortable allowing their ICU activity to be monitored by an intelligent camera? Would patients be comfortable with their biological data and medical images being stored in a central database for training Deep Learning models? This introduction should moderate enthusiasm about Deep Learning as a panacea to all problems. However, we take an optimistic look at these problems in our section “Limitations of Deep Learning”, explaining solutions to these problems as well, such as self-explanatory models or federated learning.


  • Regression: linear (because values are unbounded)
  • Classification: softmax (simple sigmoid works too but softmax works better)

Use simple sigmoid only if your output admits multiple "true" answers, for instance, a network that checks for the presence of various objects in an image. In other words, the output is not a probability distribution (does not need to sum to 1).

I might be late to the party, but it seems that there are some things that need to be cleared out here.

First of all: the activation function $g(x)$ at the output layer often depends on your cost function. This is done to make the derivative $frac$ of the cost function $C$ with respect to the inputs $z$ at the last layer easy to compute.

As an example, we could use the mean squared error loss $C(y, g(z)) = frac<1> <2>(y - g(z))^2$ in a regression setting. By setting $g(x) = x$ (linear activation function), we find for the derivative $egin frac & = frac cdot frac & = fracleft(frac<1> <2>(y - g(z))^2 ight) cdot fracleft(z ight) & = - (y-g(z)) cdot 1 & = g(z) - y end$ You get the same, easy expression for $frac$ if you combine cross-entropy loss with the logistic sigmoid or softmax activation functions.

This is the reason why linear activations are often used for regression and logistic/softmax activations for binary/multi-class classification. However, nothing keeps you from trying out different combinations. Although the expression for $frac$ will probably not be so nice, it does not imply that your activation function would perform worse.

Second, I would like to add that there are plenty of activation functions that can be used for the hidden layers. Sigmoids (like the logistic function and hyperbolic tangent) have proven to work well indeed, but as indicated by Jatin, these suffer from vanishing gradients when your networks become too deep. In that case ReLUs have become popular. What I would like to emphasise though, is that there are plenty more activation functions available and different researchers keep on looking for new ones (e.g. Exponential Linear Units (ELUs), Gaussian Error Linear Units (GELUs), . ) with different/better properties

To conclude: When looking for the best activation functions, just be creative. Try out different things and see what combinations lead to the best performance.

Addendum: For more pairs of loss functions and activations, you probably want to look for (canonical) link functions

Sigmoid and tanh should not be used as activation function for the hidden layer. This is because of the vanishing gradient problem, i.e., if your input is on a higher side (where sigmoid goes flat) then the gradient will be near zero. This will cause very slow or no learning during backpropagation as weights will be updated with really small values.

The best function for hidden layers is thus ReLu.

Softmax outputs produce a vector that is non-negative and sums to 1. It's useful when you have mutually exclusive categories ("these images only contain cats or dogs, not both"). You can use softmax if you have $2,3,4,5. $ mutually exclusive labels.

Using $2,3,4. $ sigmoid outputs produce a vector where each element is a probability. It's useful when you have categories that are not mutually exclusive ("these images can contain cats, dogs, or both cats and dogs together"). You use as many sigmoid neurons as you have categories, and your labels should not be mutually exclusive.

A cute trick is that you can also use a single sigmoid unit if you have a mutually-exclusive binary problem because a single sigmoid unit can be used to estimate $p(y=1)$ , the Kolmogorov axioms imply that when $y$ is binary, we have $1-p(y=1)=p(y=0)$ .

Using the identity function as an output can be helpful when your outputs are unbounded. For example, some company's profit or loss for a quarter could be unbounded on either side.

ReLU units or similar variants can be helpful when the output is bounded above (or below, if you reverse the sign). If the output is only restricted to be non-negative, it would make sense to use a ReLU activation as the output function.

Likewise, if the outputs are somehow constrained to lie in $[-1,1]$ , tanh could make sense.

The nice thing about neural networks is that they're incredibly flexible tools, and flexibility in output activation is one aspect of that flexibility.

The choice of the activation function for the output layer depends on the constraints of the problem. I will give my answer based on different examples:

  1. Fitting in Supervised Learning: any activation function can be used in this problem. In some cases, the target data would have to be mapped within the image of the activation function.
  2. Binary decisions: sigmoid və ya softmax. Examples:
  • Supervised Learning: classification of images in two classes A/B (cats/dogs, number/letter, art/non-art):
    • sigmoid: the output could correspond to the confidence $c$ (valued between 0 and 1) that the image belongs to the first class. The value $1-c$ could be interpreted as the confidence that the image belongs to the second class.
    • softmax: the outputs could be interpreted as the confidences $c_1$ and $c_2$ that the image belongs to each class.
    • sigmoid: the output could correspond to the probability $p$ of pressing the button the probability of not pressing it would be $1-p$ .
    • softmax: the outputs would correspond to the probabilities $p_1, p_2$ of pressing/not pressing the button.
    1. Multiple decisions: softmax. Examples:
    • Supervised Learning: classification of images in multiple classes A/B/C/. (for example, classification of digits 0/1/2/3/4/5/6/7/8/9 see MNIST)
      • softmax: in these cases the softmax function is usually chosen so that the sum of all the confidences $_i$ adds up to 1. The most "reliable" class would have an output closer to $1$ .
      • maxout: however, it is also possible to choose the class according to the maximum value of the layer (see this paper).
      • softmax: the outputs of this function would represent the probabilities $_i$ of choosing each action.
      • others: they are not usually used since one needs to parameterize the probability of each action. There could be some other way to parameterize the probabilities, but that would probably result in a complicated expression for the computation of the gradient: $ abla_<oldsymbol< heta>> log pi_<oldsymbol< heta>>( a_k | s_k ) $
      1. Continuous actions in policy gradient (reinforcement learning) actions that do not take discrete values ​​(see openai gym environments for example BipedalWalker-v2 where the actions are the amount of torque applied to each joint of the robot): in these cases a probability distribution is usually defined, and used to choose the actions each action has an associated probability density. The output layers would parameterize the probability distribution. A couple of examples of distributions would be:
      • Normal distribution parametrized by the mean $mu$ and variance $sigma^2$ : in this case an output layer would provide the mean of the distribution, and another one would provide the variance:
        • if $mu$ can take values ​​on all $mathbb$ , activation functions like identity, arcsinh, or even lrelu could be used.
        • if $mu$ can take values ​​in a range $(a, b)$ , activation functions such as sigmoid, tanh, or any other whose range is bounded could be used.
        • for $sigma^2$ it is convenient to use activation functions that produce strictly positive values ​​such as sigmoid, softplus, və ya relu.

        ***As a side note on the choice of activation functions in the HIDDEN layers. Only if you are interested in how different activation functions perform, please check the following video:


        5 DISCUSSION

        The results demonstrate that geospatial semantics can be effectively used for urban growth prediction and further suggest that spatial prediction tasks can rely on geospatial semantics. The results provide further insights concerning the quality of the prediction performance, depending on the amount of information considered. Additionally, the results enable comparison of performance with existing methods for predicting urban growth. This section discusses the benefits of the proposed method and the role of geospatial semantics. Next, the results are discussed with respect to the different prediction performances of each class. Finally, the proposed approach is compared to existing methods for urban growth prediction.

        The results demonstrate that the proximity in which geo-objects are considered for predicting the urban growth class is essential. Unlike a purely pixel-based approach, the approach presented is not spatially limited to a focal, zonal, or local pixel neighborhood, but provides improvements by modeling spatial relationships by distances and azimuths to geo-objects of a certain class. The geospatial semantics describe these classes and are therefore paramount for the proposed method. Fewer geospatial semantics yield fewer features, whereas more geospatial semantics yield more features for predicting the urban growth. The results show that more features can increase recall and precision of the predictions. Thus, more geospatial semantic knowledge can improve the prediction accuracy. Unlike urban growth prediction methods, which require factors to be modeled which potentially impact the urban growth in an explicit manner, the proposed method enables a series of factors to be incorporated in an automated manner: a potential factor could be the distances to roads or even the azimuths to industrial sides. There factors are described by the different features of the GSCM. Adding more classes to the ontology ultimately enables the incorporation of more factors which can predict urban growth. As the MLP computes the importance of the features, by performing forward- and back-propagation, the impact of different factors is modeled accordingly. Thus, important factors are not chosen arbitrarily, but incorporated in an automated manner. Within this work the number of classes and therefore the number of features was varied by changing the search radius around cells. when this radius was increased, more geo-objects and therefore more classes were considered for the spatial prediction task. Thus, geo-objects which were further away were considered and the number of features was increased. This increase, however, can introduce unnecessary features, as geo-objects which are further away might not have a causal relationship with the urban growth class of cell .

        The precision and recall of the prediction of UU areas was the highest. There are two potential reasons for that. First, urban areas are likely to share similar features such as distances to multiple objects which can mostly be found in cites, such as roads, restaurants or supermarkets. Non-urban areas might be close to some of the objects of these types (such as a family house or a remote gasoline station) however, there are unlikely to be as much of them in the same proximity as in an urban area. Moreover, non-urban areas which are close to urban areas might have similar objects within the same distance, but they might scatter around them in different azimuths. For example, an area of forest which borders a city in the very south might be as close to shops, streets, and houses as an urban area, but they all scatter north of it. This first reason explains why urban areas are less likely to be confused with areas which are non-urban as well change from non-urban to urban, such as green areas close to cities. Second, the remaining UU class can likely be confused with the UN class. However, there are only 1,390 areas of this type within the imperviousness data set. This decreases potential confusion accordingly. The NU urban growth class was predicted with the highest accuracy using 30 km for . However, decreasing precision and increasing recall resulted when changing from 10 to 30 km. This indicates that more non-urban areas which changed to urban were identified, but the rate of false positives also increased. Thus, more areas were confused with the NU class. Looking at the confusion matrix for = 30 km (see Figure 7g), it can be observed that this confusion is mostly present with the NN class. Thus, areas which remained urban or change from urban to non-urban were predicted more accurately than areas which remained non-urban or change from non-urban to urban. Considering that urban areas contain more significant associations to geospatial semantics, described by LinkedGeoData, than non-urban areas (Mc Cutchan & Giannopoulos, 2018 ), it can be said that a higher amount of available geospatial semantics yields higher prediction accuracy for areas which are urban or change from urban. Thus, the results strongly indicate that more geospatial semantics improves the prediction accuracy for determining the urban growth class.

        Related research on urban growth prediction provides a limited assessment of the accuracy of the various models (see Table 1). This makes it more difficult to provide a meaningful comparison of the proposed model (as well as future research) to those models. Additionally, the ROIs used might not be the same, which further increase this difficulty. However, the novelty of our approach can be justified based on two aspects: first, our proposed method for urban growth prediction scores the highest overall accuracy and kappa value for an ROI of the size and heterogeneity of Europe and second, it is shown how geospatial semantics can be utilized for urban growth predictions resulting in promising prediction accuracies. Our work therefore demonstrates that geospatial semantics are a rich information source for spatial prediction tasks such as urban growth prediction.

        Our approach scored an overall accuracy of 88.60% and a kappa value of 0.833 for the ROI, Europe. Two of the eight reviewed articles provide an overall accuracy for their model assessment. Our method scored an overall accuracy higher than these two approaches. Five of the eight reviewed articles on urban growth prediction provide a kappa coefficient for their accuracy assessment. Our proposed method scored a higher kappa value than all of these approaches, except that presented by Xu et al. ( 2019 ). They provide a model with an almost perfect kappa value of 0.94 (overall accuracy is not provided). However, their approach is limited to the region of the south of Auckland, which is a significantly smaller and more homogeneous ROI than Europe (which contains multiple countries). Consequently, the performance of their model for an ROI of a size and heterogeneity such as Europe is unknown. As their model is based on a CA, which uses predictions of an ANN, hyperparameters must be set for both. This increased number of hyperparameters might provide sufficient results for a specific and limited region such as the south of Auckland however, it can lead to an overfitted model and create incorrect predictions elsewhere. In particular, it has to be considered that the behavior of CA can be complex and unstable. In contrast, our model is based on an MLP (a specific type of ANN) only, and consequently only needs the corresponding hyperparameters, which decreases the chances of overfitting accordingly. In essence, our model scores the highest overall accuracy and kappa value, given our ROI of the size and heterogeneity of Europe. This also makes our method ideal for predicting urban growth at a continental scale.

        Our accuracy assessment demonstrates that geospatial semantics are a rich information source for performing a spatial prediction task such as urban growth prediction. It therefore incorporates 1,300 different OWL classes of different types of geo-objects, in order to compute different features for the GSCM. As each of these features represents a different geospatial factor (such as the minimum distance to a river or the maximum distance to a church), the MLP is able to learn which of these geospatial factors are more relevant for specific urban growth classes. In contrast, approaches such as SLEUTH or decision trees require an explicit modeling of such geospatial factors which potentially influence the process of urban growth. This might limit the performance of the predictions as the variety of different landscapes increases, and therefore the number of potentially influential geospatial factors, once the ROI gets bigger. Our proposed method avoids this problem by using the GSCM (which stores thousands of features) as an input for the MLP, which automatically determines which of the geospatial factors provided are more relevant for a specific urban growth class. In summary, the proposed method introduces advancements for predicting urban growth, by providing a feature space representation (GSCM) which enables accurate prediction for an ROI of the size of Europe. Additionally, the proposed method demonstrates that geospatial semantics can be used for spatial predictions, such as urban growth prediction, which exhibit a promising overall accuracy and kappa coefficient.


        An Extreme Learning Machine-Based Community Detection Algorithm in Complex Networks

        Community structure, one of the most popular properties in complex networks, has long been a cornerstone in the advance of various scientific branches. Over the past few years, a number of tools have been used in the development of community detection algorithms. In this paper, by means of fusing unsupervised extreme learning machines and the

        -means clustering techniques, we propose a novel community detection method that surpasses traditional -means approaches in terms of precision and stability while adding very few extra computational costs. Furthermore, results of extensive experiments undertaken on computer-generated networks and real-world datasets illustrate acceptable performances of the introduced algorithm in comparison with other typical community detection algorithms.

        1. Giriş

        As one of the most popular research fields over the past decades, complex networks have stimulated scientific advances in various fields such as biology [1], social networks [2], epidemiology [3], computer science [4], and transportations [5]. Numerous articles have explored different types of properties in complex networks. Among these articles, the study on community structure, which means vertices in a given network are inherently segregated into groups inside which the connections are relatively denser than those outside, has been one of the most popular [6]. Finding out the divisions of nodes in networks, which is called community detection or network clustering, is a hot spot for investigators because it is a good means to uncover the underlying semantic structure, mechanisms, and dynamics of certain networks [7]. Using such extracted information, internet service providers (ISPs) could set up a dedicated mirror server for intense web visits from the same geographic region to improve their customers’ internet surfing experiences [8], and/or online retailers could provide more efficient recommendations to customers in favor of creating a more friendly purchase environment [9].

        To address the community detection problem, researchers have developed numerous algorithms. Social network scientists used to solve this problem by traditional methods such as graph partitioning, hierarchical clustering, partitional clustering, and spectral clustering [7, 10]. Girvan and Newman proposed the first divisive algorithm named after them, which is a milestone historically because it introduced more physicists and computer scientists to this field [11]. Divisive algorithms use the concept of betweenness as criteria to judge how often an edge participates in a graph process and break up connections one by one to determine the most significant community structure [10]. A byproduct of Girvan and Newman’s algorithm, called modularity

        , a quality function originally proposed as a criterion to decide when to stop the calculation, is another landmark that supports clustering methods focusing on the modularity optimization problem [12]. Although it has been proven impossible to list all the feasible divisions to determine the best strategy in deterministic polynomial time (the problem is np-hard) [13], many alternative approximate optimization techniques, including greedy algorithms [14], random walks [15], fast unfolding algorithm [16], information-theoretic framework [17], belief propagation [18], extremal optimization [19], simulated annealing [20], and genetic algorithms [21], have been deployed to solve the problem. Along with the optimization tools of interest, many instruments have been involved in this field. For example, spectral algorithms explore eigenvalues of Laplacian matrices of graphs using traditional clustering techniques [22]. Similar to spectral clustering, similarity matrix factorization and blocking can also be applied [23]. Label propagation, that is, attaching labels to each node based on the neighbor information, is known as a fast and effective clustering method [24].

        -means clustering has long been one of the best off-the-shelf tools that exhibit relatively high precision and low computational complexity [25]. However, the performance of -means relies too heavily on the selection of the initial centroids hence many updates have been proposed to overcome this drawback. -means++ chooses distinct initial seeds far from each other in a probabilistic manner, which leads to more stable clustering results but involves increased complexity [26]. Through ranking nodes in the same manner as Google’s cofounders did [27] and picking the center nodes from the highest ranking ones, -rank achieves small fluctuation in the community detection output although it requires additional running time [28]. Another defect of -means, explained by Ng et al. [29], is that it is only capable of finding clusters corresponding to convex regions. To address this problem, one could map the original data into a more suitable feature space. For example, Li et al. made use of principal component analysis (PCA) to implement -means in a lower-dimensional space for community detection tasks [30].

        The prevalence of extreme learning machines (ELM), originally proposed by Huang et al., should be largely credited to the simplicity of its implementation [31]. It has been demonstrated that given random input weights and biases of the hidden layer, a single-layer feedforward network (SLFN) could approximate any continuous functions simply by tuning the output weights [32]. As a result, the abstracted task in ELM is equivalent to a regularized least squares problem which can be solved in closed form using the Moore-Penrose generalized inverse [33]. Recently, semisupervised and unsupervised ELMs have been exploited based on the manifold regularization framework [34]. Regarding the clustering task, the unsupervised ELM can be interpreted as an embedding process that maps the input data into low-dimensional space.

        In this paper, we propose an extreme learning machine community detection (ELM-CD) algorithm based on the combination of -means and unsupervised ELM to fulfill the community detection task. Unsupervised ELM, inheriting the efficiency of ELM, has been utilized as a mapping mechanism that transforms the adjacency matrix to low-dimensional space, where -means can be employed to label the groups. In consideration of no additional computational load, we prefer the original lite weighted -means to other reinforced editions. Extensive comparison trials on both artificial networks and realistic networks indicate that ELM-CD outperforms traditional -means in light of different precision criteria. Meanwhile, the introduced algorithm has remarkably low complexity, approaching that of -means, and outperforms all other competitors evaluated.

        The remainder of this article is organized as follows. Section 2 provides details of our algorithm. In Section 3, evaluations and comparisons are made in artificial and real-world networks. Finally, we conclude our work in Section 4.


        Detailed problem list

        1. WGS 84 Datum ambiguity

        • The WGS 84 Web Mercator projection (EPSG::3857), technically called the Pseudo Mercator projection, is based on
        • The WGS 84 Coordinate Reference System (EPSG::4326), which is based on
        • The WGS 84 Datum ensemble (EPSG::6326), which is an ensemble of
        • Six WGS 84 Datum realizations.

        Figure: Basis of WGS 84 from EPSG Registry
        As explained by Roger Lott, the formal WGS 84 datum is not unique it has been updated six times to date. Each update (called a realization) refines the datum’s alignment with the earth to account for improved measurements of the earth’s shape (which is different to tectonic plate movement). Each WGS 84 formal realization is dynamic. I.e. coordinates change with time. To be unambiguous, coordinate metadata needs to include coordinate epoch (date).


        Figure: Stepwise jumps in WGS 84

        WGS 84 coordinates for ground stations and satellite ephemerides (and therefore the datum definition) are re-computed each year, mid-year. WGS 84 actually moves in a step-wise fashion. If this is not taken into account, then positioning problems can result. (Refer to ISO 19161-1.)

        2. Modernising OGC Standards

        • Extension to describe dynamic geodetic reference frames.
        • “Datum ensembles” which allows grouping of related realizations of a reference frame.
        • In a dynamic CRS, the coordinate epoch is stored as an attribute of a set of coordinates, it is not part of the CRS. (A set of coordinates could be points, features, or a dataset.)
        • We will need to consider how new time-dependent coordinates can be introduced without breaking backward compatibility with existing standards, software, and datasets.
        • There is likely to be performance and implementability implications depending on whether epoch is tied to the level of a point, feature, or dataset.

        WGS 84 is not explicitly defined (by an EPSG code or similar) and could be any of the WGS 84 realisations. Likewise, epoch (date) is not recorded, resulting in further dataset inaccuracies.

        While the GeoJSON standard only allows a CRS of WGS 84, “in the wild” implementations appear to allow implementation of different CRS values (as per earlier drafts from April 2006 of the GeoJSON standard). For instance, the OpenLayers browser based client supports a GeoJSON CRS attribute. See example:

        3. Publishing static maps using a dynamic datum

        4. Web-mapping has been topologically aligned, but not accurate

        • National mapping agencies store maps accurately in their region’s official static datum.
        • Until recently, a region’s official datum only had one transformation to the WGS 84 datum.
        • As a time-dependent transformation was not applied, this locked the target datum to a point in time, effectively emulating a static datum.
        • For instance, the transformation from CRS GDA94 (EPSG::4283) to CRS WGS 84 (EPSG::4326), (Transform: EPSG::1150) locks transformed coordinates to the year 1994.0.

        Maps sourced into the WGS 84 datum ensemble are regularly systematically misaligned.

        The poor accuracy of WGS 84 has been masked from users as they see topologically aligned maps. Effectively, there has been a communication gap between the geospatial community and software developers in understanding this problem.

        WGS 84 features sourced from current GPS devices (such as mobile phones), will be misaligned with WGS 84 maps transformed from a region’s official static datum. The tectonic plate coordinate shift will be exposed.

        • Australia’s epoch of WGS 84 is aligned with GDA94 (EPSG::4283), which is aligned to ITRF92 at epoch 1994.0 (Transform EPSG::1150).
        • USA’s epoch of WGS 84 is aligned to CRS NAD83 (EPSG::4269) from 1986.0 (Transform EPSG::1188) etc.

        5. Australia’s misaligned web-maps

        7cm per year), coordinates in the dynamic WGS 84 datum drift apart from static GDA94 coordinates. In 25 years, this equates to

        1. Move basemaps and datum to align with current GPS (WGS 84) positions. (Move mountain to Mohammed).
        2. Adjust coordinates in GPS mobile devices to account for WGS 84 and GDA94 differences. (Mohammed goes to the mountain).

        1.8 metres. (Previously these layers would have been aligned because they would have both been transformed from GDA94.)

        6. Reference frames and projections

        • The baseline reference frame used in geodesy
        • The reference frame being adopted by national datum modernisation initiatives
        • Addresses time
        • Has more accurate transformations into it.

        7 Constructs to describe accuracy

        • Transforming coordinates between datums has associated inaccuracies, which differs depending on the transformation path taken, and the transformation path typically is not predetermined.
        • In contrast, converting coordinates from one reference system to another, (e.g. from latitude /longitude to easting /northing) is a mathematical procedure which does not introduce inaccuracy.
        • The lineage of how a dataset’s coordinates are derived is typically not recorded with the dataset.
        • By definition, transformations between datums are assigned an accuracy, but accuracy isn’t assigned to a datum per se.
        • Dataset formats and web service standards typically don’t record or publish accuracy statements.

        As standard spatial data formats and web service interfaces don’t define attributes for accuracy, it is difficult for users to determine the accuracy of a datasets. Equally, it is difficult to publish a dataset’s accuracy.