Anwendung künstlicher Neuronaler Netze in der Optimierung - Mike Steglich Künstliche Intelligenz - verständlich

Page created by Alfredo Malone
 
CONTINUE READING
Anwendung künstlicher Neuronaler Netze in der Optimierung - Mike Steglich Künstliche Intelligenz - verständlich
Anwendung künstlicher Neuronaler Netze in der Op8mierung

 Anwendung künstlicher Neuronaler Netze in der Optimierung

 Mike Steglich
 Technische Hochschule Wildau

 Künstliche Intelligenz -> verständlich

 06. Juli 2020
Anwendung künstlicher Neuronaler Netze in der Optimierung - Mike Steglich Künstliche Intelligenz - verständlich
Anwendung künstlicher Neuronaler Netze in der Op8mierung

 Zwei gegensätzliche Welten?

 Künstliche Neuronale Netze (KNN) Optimierung

 = → ! ( !)
 . . .
 ≥

 ?
 ! = 0; ∈ 1,2, … , 
 ≤
 ≥0

 Künstliche Neuronale Netze sind parallel verbundene Bestimmung des Lösungselementes mit dem
 Netzwerke aus einfachen Elementen in hierarchischer besten Zielfunktionswert aus einer Menge
 Anordnung, die mit der Welt in der selben Art wie zulässiger Lösungselemente.
 biologische Nervensysteme interagieren sollen.
 (Kohonen 1982)

 Abbildung eines Inputvektors auf einen Output-
 vektor 

Mike Steglich – KI verständlich – 06. Juli 2020 2
Anwendung künstlicher Neuronaler Netze in der Optimierung - Mike Steglich Künstliche Intelligenz - verständlich
Anwendung künstlicher Neuronaler Netze in der Op8mierung

 Künstliches Neuronales Netz (KNN)

 o KNN sind als gerichteten Graphen darstellbar, die sich durch eine Menge von Knoten (Neuronen) und
 eine Menge von bewerteten Kanten beschreiben lassen.
 o Die über die gewichteten Kanten übertragenen Argumente werden in den Knoten (als eigentliche
 Berechnungseinheiten eines künstlichen neuronalen Netzes) über bestimmte Berechnungsvorschriften zu
 einen Outputwert moduliert. (Zell 1997)

 w[1]11
 e1 h1 w[2]11
 [1]
 w 21
 1
 [1]
 w[2]21
 ( )
 w 31
 o1 h= sW [1]
 ×e 0.8
 w[1]12 w[2]12 0.6
 e2 w[1]22
 h2 w[2]22 0.4

 ( )
 [1]
 w 0.2
 32
 o = s W [2] × h
 w[1]13 w[2]13 o2
 w[2]23 -10 -5 5 10

 w[1]23
 e3 h3
 w[1]33

 (Steglich 2001, S. 215)

Mike Steglich – KI verständlich – 06. Juli 2020 3
Anwendung künstlicher Neuronaler Netze in der Optimierung - Mike Steglich Künstliche Intelligenz - verständlich
Anwendung künstlicher Neuronaler Netze in der Op8mierung

 Künstliches Neuronales Netz (KNN)

 o Die Aufgabe eines KNN besteht darin, die Abbildung vom Inputvektor auf den Outputvektor zu
 erlernen und zu repräsenMeren.

 1 1
 2 2
 
 o Ein KNN arbeitet in zwei Modi:
 § einer Lernphase und
 § einer Ausführungsphase (Recallphase).

 o In der Lernphase werden die Kantengewichte zur Abbildung : ! → " in der Lernphase durch einen
 Lernalgorithmus festgelegt.
 § Überwachtes Lernen erfolgt anhand von Beispielen mit Eingabe- und zugehörigen Ausgabewerten.
 § Unüberwachtes Lernen erfolgt anhand von Beispielen einzig mit Eingabewerten.

 (Aggarwal 2018, S. 4ff, Rojas 1996, S. 29)

Mike Steglich – KI verständlich – 06. Juli 2020 4
Anwendung künstlicher Neuronaler Netze in der Optimierung - Mike Steglich Künstliche Intelligenz - verständlich
Anwendung künstlicher Neuronaler Netze in der Op8mierung

 Zwei miteinander verbundene Welten

 KNN als Pre- bzw. Post-
 OpMmierung als
 Processing der Daten für
 Bestandteil des KNN-
 eine OpMmierungsan-
 Lernalgorithmus
 wendung

 KNN als Bestandteil eines
 Optimierungsalgorithmus

Mike Steglich – KI verständlich – 06. Juli 2020 5
Anwendung künstlicher Neuronaler Netze in der Op8mierung

 Zwei miteinander verbundene Welten

 o KNN als Pre- bzw. Post-Processing der Daten für eine Optimierungsanwendung

 = → ! ( !)
 . . .
 ≥
 ! = 0 ; ∈ 1,2, … , 
 ≤
 ≥0

 Data pre-processing Data post-processing
 zur Bes2mmung von zur Analyse der
 Problemdaten Lösung

Mike Steglich – KI verständlich – 06. Juli 2020 6
Anwendung künstlicher Neuronaler Netze in der Op8mierung

 Zwei miteinander verbundene Welten

 o Optimierung als Bestandteil des KNN-Lernalgorithmus

 (Schaaf 2020)

Mike Steglich – KI verständlich – 06. Juli 2020 7
Anwendung künstlicher Neuronaler Netze in der Op8mierung

 Zwei miteinander verbundene Welten

 o KNN als Bestanteil eines Optimierungsalgorithmus (i.d.R. Heuristik)

 § KNN als eigenständiger Optimierungsalgorithmus
 § KNN als Bestandteil eines Optimierungsalgorithmus

Mike Steglich – KI verständlich – 06. Juli 2020 8
Anwendung künstlicher Neuronaler Netze in der Op8mierung

 Self-organising maps (SOM)

 o A SOM is able to find a topographical projecMon ∶ → , where describes input paWerns of
 aWributes and a usually one- or two-dimensional representaMon of the input paWerns (Kohonen 1982).

 o A SOM can be described as a feed-forward network consisMng of two layers of units. The input units are
 completely connected with the output units in the second layer. The weights on the edges between the
 8 formulated as a Matrix = { 
 input and output units can be Mike Steglic
 #$ ∈ ℝ | ∈ {1,2, … , }, ∈ {1,2, … , }}
 (Kohonen 1982).
 o1 o2 o3

 w11 w43

 i1 i2 i3 i4

 Fig. 1 Example of a SOM with an one-dimensional array of output units
 (Steglich 2019)

Mike Steglich – KI verständlich – 06. Juli 2020 9
alternating location-allocation
 Fig. 1 Example
 unit have to be updated heuristic:
 of a SOM withSince the projection
 an one-dimensional
 in order to improve the matching. between
 array of outputthe input unitspatterns and the ac-
 n heuristic:
 found in the first Since steptheisprojection
 used in between a ca- the tivity input of the output
 patterns and the unitsac- have to be topographically cor-
 LA Anwendung künstlicher Neuronaler Netze in der Op8mierung
 d inheuristic
 a ca- to find and improve
 tivity
 Theofoutputthe output a solution
 units unitsarehave usually torect, the
 beorganised weights of thecor-
 topographically neighbours of the winner unit also
 as a one- or two-dimensional array,
MP. The allocationrect,
 a solution of thethedestinations
 weights to the
 of the have oftothebewinnerupdated. Kohonen
 also proposed the Gaussian neigh-
 where the units are neighbours
 laterally connected. unit
based
 ions toon thea GAP have whichtoisbesolvedupdated. by Kohonen
 using proposed bourhood the to function as
 Gaussian neigh- shown in expression (8) for a one-
 Self-organising maps
 The (SOM)
 projection f : ⇥ ! ⌦ has be found during
 cing
 d by technique
 using and variablefunction
 bourhood relaxing-fixing as shown in dimensional
 expression array
 (8) for ofaoutput
 one- units,the whereso-called
 s defines learning
 the width
 The locations phase, which means, that the following steps have to be carried on T = e·N
 xing-fixing o Theare modified :by
 dimensional
 projection
 times, 
 where
 determining
 array
 → ofhas
 estepsoutput
 is the to units,
 be found of the
 where kernel
 during
 number of so-called epochs.s defines
 the (Kohonen,
 the width
 so-called 2001,
 learning p. 111).
 phase, which means that the
 setermining
 for each allocation cluster.
 of the kernel Both
 (Kohonen, are
 2001,out p. 111). !
 following stepsGiven have antoinputbe carried vector ✓lseveral
 2 ⇥ =times {✓m |m (Kohonen,
 2 {1, 2001,
 2, .h) .p..2106) . l 2 {1, 2, . . . , L},
 , I}};
 long as
 h steps are improvements for the CPMP occur ! layer (n
 ution for a 1. Initialisation:
 continuous, only one
 capaci- Initialise
 unit of the all
 Afterweights
 output 2 by
 finding thed (n,
 assigning h) =be
 can
 winning exp
 randomactivated
 output values.
 unit, 2according
 ; n 2 {1, 2,the
 tothis O}.
 . . . ,winner- (8)
 um number
 PMP occur of steps is not reached. (n h) 2sthe weights of
 y solving aoptimisation
 GAP. d (n,
 takes-all h) = exp
 output function
 unit have be; ninput
 (8). 2 {1, 2,
 This is in. the , O}.
 . . orderoutput(8)unit ⌘the 2 {1, 2, . . . , O} with
 hbourhood
d. 2. Propagation: heuristic:Choose In the last2s 2 toan
 randomly updated pattern % ∈to improve = { # | ∈matching. {1,2, … , }}; ∈
 stlocation-allocation
 solution
 In the last found so heuristic:
 the
 far minimum
 is improved Since
 squared
 by us-
 {1,2, … , } and determine the winner unit the projection
 Euclidean To between
 distance
 update a the
 between
 weight inputw mn patterns
 the
 between input andan the
 vector
 input ac-unit
 ✓l and its an
 m and
 he
 lved first step is used
 neighbourhood
 by us- Toinupdate
 weight
 optimisationa ca-vector wtivity
 aheuristic.
 weight n . Inof the output unit
 wmn between an input unitsn,unit have
 them toandbeantopographically
 difference (qm wmn ) iscor- multiplied by the
 2
 to find and
 subregion,
 uristic. In improve
 surrounding a solution
 output a selected
 unit rect, the (q
 median,
 n, the difference weights of) the
 ⌘ = neighbourhood
 arg
 wmn ismin neighbours
 multiplied k✓lbydof
 value wthe
 (n,
 the nh)k winner unit also factor
 and a learning-rate (8)a as
 m n2{1,2,... ,O}
 ation
 edf the of the destinations
 solution
 median, found for tothis
 neighbourhood thesubregion
 value have (n,toh)
 d im- beandupdated.
 shown Kohonen
 in the learning
 a learning-rate proposed
 factor aruleasthe
 (9) Gaussian
 (Kohonen,neigh- 2001, p. 111).
 AP
 bjective
 region which
 im- is solved
 function value
 shown byofAfter
 using
 thethe
 in entire
 finding
 learning bourhood
 problem,the (9) function
 winning
 rulewinner (Kohonen, output as2001,
 shown
 unit, p. in theexpression
 111). weights of (8)thisfor unit
 a one-have to be
 e problem,
 and variable 3. Updating
 relaxing-fixing weights for the
 dimensional and
 array its neighbourhood
 of matching.
 output Dwunits, where :
 a · d (n, s h) · (qm thewwidth
 defines
 tial
 re solution updates the entire in
 updated solution.
 order This
 to improve the mn = Since the projection )
 mnbetween the
 are
 sution. modified
 repeated Thisuntilby all determining
 medians
 inputs
 Hybrid areDw
 patterns mn =of
 optimised
 heuristic a
 and
 forthe or
 · dthekernel
 the
 (n, h) (Kohonen,
 activity
 · (q
 capacitated m of the
 mn )2001,
 wp-median ;output p.
 m 2problem{1,111).
 2, . . . ,have
 units I}, n 2 to{1,be2,topographically
 . . . , O} (9)
 9
 ocation
 number
 ptimised or cluster.
 of steps Bothwith steps
 no
 correct, are
 improvements
 the weights is of the neighbours
 ; m 2 {1, 2, . . . , I}, n 2 {1, 2, . . . , O} 2 of !the winner
 (9) unit also have to be
 ovements
 vements is for the CPMPupdated.occur Kohonen proposed Both
 the parameters
 (n
 Gaussian h) a and
 neighbourhood s are usually function decreasedas shownin each
 2. Propagation: Choose d (n, h) = exp
 randomly
 step of the
 an input ;pattern
 learning n
 phase2 {1, 2,✓.l .2
 to ensure . , O}.
 ⇥
 faster (8)
 and determine
 changes
 the
 of the
 steps is not reached.in Both parameters
 expression (9) a and
 for a s are usually
 one-dimensional 2s
 decreased 2
 array inof each
 output units, where defines
 winner unit ⌘ using expression (8). t
 timisation heuristic:
GAP-based heuristic stepInto the
 of lastlearning
 solve
 the a of
 continuous, phase
 kerneltoin ensureweights faster in achanges
 broader neighbourhood at the beginning of the
 the3.widthUpdating theweights: learning
 Update all step
 weights t [32]. byofusing the the learning rule (10) and
 und so far
 median
 ontinuous, is improved
 problem weights byinus-a broader To update
 neighbourhood alearning
 weight
 at the process
 w beginning
 mn and
 between to
 of
 ! with step 2. anrefine
 the input it at
 unitthe m end
 and ofanthe process.
 4.
 ood optimisation heuristic. Stop, if a stopping
 decrease rule
 In
 ↵ and is satisfied
 . or else
 Afterwards, continue for all w patterns ✓l 2 ⇥ theby corresponding out-
 scribes the generation learning process
 of4.a solution
 Stop, a output
 and
 if for tocon-
 a(n,
 stopping ⌘)
 unitit
 refine
 =
 n,atthe
 rule
 exp
 the
 is difference
 end
 (n of ⌘)
 satisfied the2or
 (qprocess.
 melse
 ; n 2
 mn ) is multiplied
 continue
 {1, 2, . . .with
 , O}. stepthe 2. (9)
 urrounding a selected median, for allneighbourhood
 Afterwards, patterns ✓ 2 puts
 ⇥ valuehave
 the d to be
 h)
 corresponding
 (n, 2 determined
 and a by
 learning-rate
 out- applyingfactor thea winner-takes-all
 as
 tatedfor ap-median problem using a SOM and a l 2
nn found con- t
 for this subregion im- shown in the function:
 learning rule (9)the (Kohonen, 2001,
SOM and
 puts have Afterwards,
 to be determined for
 o a Afterwards, for all patterns % ∈ the corresponding all
 by patterns
 applying ✓
 thel 2 ⇥
 winner-takes-all
 outputscorresponding
 have to p.be111).
 outputs
 determined havebyto be
 applying the
 ion value ofwinner-takes-all
 the entire problem,
 determined
 function: function:
 To update by applying the
 a weight wmn between anwinput winner-takes-all function:
 unit m and
 pdates the entire solution. This Dwmn = a · d (n, h) l =· (qargm wmin mn ) k✓an l woutput
 nk
 2 unit n,
 maps the di↵erence (✓!m = w mn ) ismin multiplied k✓2 l by wnthe neighbourhood
 k2 ; ln2{1,2,...
 2 {1, 2, ,O}
 . . . , L}.value (n,(11) ⌘)
 il all medians are optimised or wl = argl arg minn2{1,2,...
 ; m k✓2 l {1, w 2,
 n k. . . , I}, n 2 {1, 2, . . . , O} (9)
 and a learning-raten2{1,2,... factor,O} ↵t as shown ,O} in; l the
 2 {1, learning
 2, . . . , L}. rule (10). (10)
 rticular
 teps withtypeno of an artificial is
 improvements neural network
 uced by Kohonen (1982).wmn
 al network The=main
 There ;↵lare
 2 charac-
 {1, 2, . . . parameters
 Both
 obviously , L}.some a) and
 similarities s {1,arebetween .(10)
 usually decreased {1,in
 a Self-Organising 2, each Map and
 t · (n, ⌘) · (✓m SOM-based wmn 2
 ; mapproach 2, . . solve
 to , I}, na 2continuous, . . . uncapacitated
 , O} (10)
OMain is the capability toafind
 charac- a topographical
 continuous, step of the learning
 uncapacitated phase toproblem
 p-median ensure faster [11, 45]. changes
 Therefore,of the Lozano et
 SOM-based approach to solve a p-median problem
 continuous, uncapacitated
⇥euristic
 !Mike
pographical where
 to solve
 ⌦, Steglich –⇥ describes
 KIaverständlich
 continuous,
 al.,
 Both –L06.
 Hsieh input
 Juliand
 2020
 parameters weights
 patterns
 Tien ↵and in a broader
 t and Arast et areneighbourhood
 al.usually
 proposed at the beginning
 several
 decreased in eachofstep
 SOM-based theapproaches
 t of the 10
Anwendung künstlicher Neuronaler Netze in der Op8mierung

 Self-organising maps (SOM)

 (Eigenes Experiment)

Mike Steglich – KI verständlich – 06. Juli 2020 11
Anwendung künstlicher Neuronaler Netze in der Op8mierung

 Lösung des symmetrischen Rundreiseproblems miHels selbstorganisierter Karten

 o Mit diesem Problem ist die kürzeste geschlossene Reiseroute über eine Anzahl von Orten zu finden. Die
 Distanzen zwischen den Orten sind bekannt. Jeder Ort muss mindestens bzw. möglichst genau einmal
 aufgesucht werden. Anschließend wird zum Ausgangsort zurückgekehrt (Steglich et al. 2016, S. 278 f).

 Parameter:
 åc ij × xij ® min!
 Menge der Knoten
 [i , j ]ÎA
 s.t . Menge der Kanten
 ( ) Menge der mit dem Knoten inzidenten Kanten
 åd xij = 2 ;i Î N
 [i , j ]Î ( i ) ( ) Menge der mit den in der Menge enthaltenen Knoten
 verbundenen Kanten
 å xij £ S - 1 ;S Ì N , S ³ 2
 [i , j ]Îd ( S ) Distanz der Kante , ∈ 
 xij Î{0,1} ;[ i , j ] Î A Variablen:
 Kantenindikatorvariable , ∈ 
 (Steglich et al. 2016, S. 281 f., Chen et al. 2010, S. 146 ff., Ghiani et al. 2013, S. 368 ff.]
Mike Steglich – KI verständlich – 06. Juli 2020 12
Anwendung künstlicher Neuronaler Netze in der Op8mierung

 Lösung des symmetrischen Rundreiseproblems mittels selbstorganisierter Karten

 o Die Anzahl möglicher Touren beträgt bei einem symmetrischen Rundreiseproblem − 1 !/2.

 &!
 o Bei 10 Knoten exisMeren (
 = 181.440 unterschiedliche Touren.

 ()!
 o Bei 26 Knoten exisMeren ( = 7,76 I 10(* Varianten, die bei einer Bearbeitungszeit von einer
 Millisekunde pro Variante 7,76 I 10(* Millisekunden bei einer vollständigen EnumeraMon benöMgen
 würden.

 o Zum Vergleich: Das geschätzte Alter des Universums beträgt 13,7 Milliarden Jahre ≈ 4,32 I 10(*
 Millisekunden (Vgl. Sperkel et al. (2003)).

 (Vgl. Steglich et al. 2016, S. 285.)
Mike Steglich – KI verständlich – 06. Juli 2020 13
Anwendung künstlicher Neuronaler Netze in der Op8mierung

 Lösung des symmetrischen Rundreiseproblems miHels selbstorganisierter Karten

 o Bei vorliegenden Städten besteht die Ausgabeschicht aus einer ein-dimensionale Karte mit insgesamt 
 ringförmig angeordneten Knoten.
 o Als Eingaben werden die Koordinaten der Städte verwendet. Durch den Lernprozess spezialisiert sich
 jeder Knoten der Ausgabeschicht auf eine Stadt. Es entsteht eine eine Rundreise über alle Städte.

 (Eigenes Experiment unter Verwendung der Software Sikone / Uni Halle)

Mike Steglich – KI verständlich – 06. Juli 2020 14
Anwendung künstlicher Neuronaler Netze in der Op8mierung

 Lösung des konJnuierlichen, unkapaziJerten p-Median-Problems miHels SOM

 o Eine Anzahl von Bedarfsorten ist auf
 einer ebenen Fläche oder auf einer
 Kugeloberfläche verteilt. Es werden
 Standorte (Angebotsorte) zur
 Bedienung der Bedarfskonten gesucht.
 o Die einzelnen Punkte auf einer ebenen
 Fläche oder auf einer Kugeloberfläche
 stellen die PosiMonen der potenMellen
 Standorte dar.
 o Es sind die PosiMonen der Standorte
 sowie die opMmale Zuordnung der
 Bedarfsknoten zu den Angebotsorten zu
 besMmmen, wobei die Summe der
 Distanzen zu minimieren ist.

 (Steglich et al. 2016, S. 402 ff., Winkels 2012, S. 416 f.)
Mike Steglich – KI verständlich – 06. Juli 2020 15
Anwendung künstlicher Neuronaler Netze in der Op8mierung

 Lösung des konJnuierlichen, unkapaziJerten p-Median-Problems miHels SOM

 Indexmengen:
 E E !$ ⋅ ! , ! , $ , $ → min!
 !∈# $∈%
 ! – Menge der Standorte, |!| = $
 . . . % – Menge der Bedarfsorte
 Indizes:
 E !$ = 1 ; ∈ 
 & – Index der Standorte, & ∈ !
 !∈#
 !$ ∈ 0,1 ; ∈ , ∈ ( – Index der Bedarfsorte, ( ∈ %
 Parameter:
 $ – maximale Anzahl von Standor-
 ten
 (*! , ,! ) – Koordinaten des Bedarfsortes
 (∈%
 Variablen:
 (." , /" ) – Koordinaten des
 Standorts & ∈ !
 *"! – Zuordnungsvariable des Bedarfsortes (
 zum Standort &
 1(∙) – Distanzfunktion zwischen einem Stand-
 ort und einem Bedarfsort

 (Steglich et al. 2016, S. 402 ff., Winkels 2012, S. 416 f.)

Mike Steglich – KI verständlich – 06. Juli 2020 16
Anwendung künstlicher Neuronaler Netze in der Op8mierung

 Lösung des konJnuierlichen, unkapaziJerten p-Median-Problems miHels SOM

 One input unit per There are p
 coordinate; one output units,
 paGern represents which
 Map with the coordinates of represent areas
 the a des2na2on of the map
 locations
 aJer the
 of the
 learning phase.
 destina-
 The weights of
 tions
 the output
 units are the
 coordinates of
 the sources.

 The winner
 unit per
 input
 (loca2on of
 a demand
 node)
 represents
 the
 alloca2on of
 the
 des2na2on
 to the
 source
 (Steglich 2019, Lozano et al. 1998, Hsieh and Tien 2004, Aras et al. 2006)

Mike Steglich – KI verständlich – 06. Juli 2020 17
Anwendung künstlicher Neuronaler Netze in der Op8mierung

 Lösung des diskreten, kapazitierten p-Median-Problems mittels SomAla
 Mike Steglich
 o Es sind die Standorte für eine vorgegebene Anzahl von logisMschen Knoten in einem LogisMknetzwerk zu
 finden,
 j is allocated toso
 a dass dielocated
 source Summe at
 derthe
 gewichteten
 node i orDistanzen
 xij = 0 if der Bedarfsorte zum jeweils nächstgelegenen der
 not
 gewählten
 ematical model can Standorte minimal
 be formulated aswird
 follows [16,
 (Daskin Maass, 2015):
 and42]:

 X
 dij · xij ! min Parameter: (1)
 (i,j)2A Menge der Bedarfsorte (zugleich potenMelle
 s.t. Standorte der Angebotsorte)
 X Menge der Kanten , = {( , ) | ∈ , ∈ }
 xij = 1 ;j 2 N (2) der Angebotsorte
 Anzahl
 i2N
 X + Bedarf des Bedarfsortes ∈ 
 qj · xij  Q · yi ;i 2 N Angebot
 (3) der Angebotsorte
 j2N ,+ Distanz zwischen den Knoten ∈ und ∈ 
 X
 yi = p (4)
 i2N Variablen:
 xij 2 {0, 1} ; (i, j) 2 A , Standortvariablen,
 (5) ∈ 
 ,+ Zurodnungsvariable für einen Bedarfsort ∈ 
 yi 2 {0, 1} ;i 2 N (6) Angebotsort ∈ 
 zum

em is intended to find the locations of the sources and to allocate
ons to the sources in order to minimise the total transportation
 n be assumed that the transportation costs are proportional to
, then the objective function (1) is used. If the quantities to be
m the sources to the destinations are relevant for the transporta-
 Mike Steglich – KI verständlich – 06. Juli 2020 18
Anwendung künstlicher Neuronaler Netze in der Op8mierung

 SomAla

 o SomAla is a new hybrid heurisMc for the capacitated p-median problem (CPMP) which combines a self-
 organising map (SOM), integer linear programming, an alternaMng locaMon-allocaMon algorithm (ALA) and
 a parMal neighbourhood opMmisaMon.
 1. SOM-GAP-based heuris?c to solve a con?nuous, capacitated p-median problem
 • A SOM is used to solve a conMnuous, uncapacitated p-median problem.
 • This soluMon is the basis to solve a conMnuous, capacitated p-median problem using a
 generalised assignment problem (GAP).
 2. Capacitated alterna?ng loca?on-alloca?on heuris?c
 • The locaMons are modified by determining new medians for each allocaMon cluster.
 • The allocaMon of the desMnaMons to the sources is based on a GAP which is solved by using a
 size reducing technique and variable relaxing-fixing heurisMc.
 3. Par?al neighbourhood op?misa?on heuris?c
 • In each step, a CPMP for a subregion, surrounding a selected median, is solved.
 • If the soluMon improves the objecMve funcMon value of the enMre problem, then the parMal
 soluMon updates the enMre soluMon.

 (Steglich 2019)

Mike Steglich – KI verständlich – 06. Juli 2020 19
Anwendung künstlicher Neuronaler Netze in der Op8mierung

 g11056 instance

 o The g11056 instance is the largest CPMP
 26 Mike Steg

 instance which has been ever solved and
 published.
 o The demand nodes are the 11,056 German
 ciMes and communiMes published by the
 StaMsMsches Bundesamt (2017) with their
 geographical coordinates.
 o Four instances with 111 up to 3317
 sources
 o These instances show that SomAla is able
 to find good feasible soluMons in
 reasonable computaMonal Mmes (e.g.
 ~3,500 seconds for for g11056-3317) for
 very large instances.

 Fig. 2 Picture of the best known solution for the g11056-553 instance found by SomAla-

 (Steglich 2019)
 each allocation cluster. In the last step, the best solution found so far is to
Mike Steglich – KI verständlich – 06. Juli 2020 improved by a partial neighbourhood optimisation heuristic. 20
Anwendung künstlicher Neuronaler Netze in der Op8mierung

 References

 Aggarwal, Charu C. 2018, Neural Networks and Deep Learning, Springer.
 Chen, D.-S., R.G. Batson and Y. Dang (2010): Applied Integer Programming: Modeling and Solution, Wiley,
 Hoboken.
 Daskin, M.S., Maass, K.L., 2015. The p-Median Problem. In Laporte, G., Nickel, S. and Saldanha da Gama, F.
 (eds), Location Science. Springer, Cham, Heidelberg, New York, Dordrecht, London, book section 2, pp.
 21– 45.
 Ghiani, G., G. Laporte and R. Musmanno (2013): Introduction to Logistics Systems Management, 2. Aufl.,
 Wiley, Chichester.
 Hsieh, K.H., Tien, F.C., 2004. Self-organizing feature maps for solving locationallocation problems with rectilin-
 ear distances. Computers & Operations Research 31, 10171031.
 Kohonen, T., 1982. Self-Organized Formation of Topologically Correct Feature Maps. Biological Cybernetics
 43, 59–69.
 Kohonen, T., 2001. Self-Organizing Maps (3 edn.). Springer, Berlin et al.
 Lozano, S., Guerrero, F., Onieva, L., Larraneta, J., 1998. Kohonen maps for solving a class of location-allocation
 problems. European Journal of Operational Research 108, 106–117.
 Rojas, Raul 1993, Theorie der neuronalen Netze, Springer, Berlin Heidelberg.

Mike Steglich – KI verständlich – 06. Juli 2020 21
Anwendung künstlicher Neuronaler Netze in der Op8mierung

 References

 Schaaf, Nina 2020, Neuronale Netze: Ein Blick in die Black Box, hWps://www.informaMk-
 aktuell.de/betrieb/kuenstliche-intelligenz/neuronale-netze-ein-blick-in-die-black-box.html, letzter Zugriff:
 05. März 2020.
 Steglich, Mike 2001, Mike : ZielwertorienMerte Auswertung von Kostenabweichungen, Wiesbaden 2001.
 Steglich, Mike 2019: A Hybrid HeurisMc Based On Self-Organising Maps And Binary Linear Programming
 Techniques For The Capacitated P-Median Problem, in: Proceedings of the 33rd InternaMonal ECMS
 Conference on Modelling and SimulaMon ECMS 2019, Caserta, Italy, p. 267-276.
 Steglich Mike, Dieter Feige und Peter Klaus: 2016, LogisMk-Entscheidungen: Modellbasierte
 Entscheidungsunterstützung in der LogisMk mit LogisMcsLab, 2. aktualisierte und kompleW überarbeitete
 Auflage, De Gruyter, Berlin und Boston.
 StaMsMsches Bundesamt, 2017. StaMsMsches Bundesamt, Gemeinden in Deutschland nach Fläche, Bevölkerung
 und Postleitzahl am 31.03.2017 (1. Quartal). hWps:
 //www.destaMs.de/DE/ZahlenFakten/LaenderRegionen/ Regionales/Gemeindeverzeichnis/AdministraMv/
 Archiv/GVAuszugQ/AuszugGV1QAktuell.xlsx?blob=publicaMonFile. Accessed: 20 September 2017.
 Winkels, H.-M. (2012): Modellbasiertes LogisMkmanagement mit Excel: Lösungen von Problemen in der
 LogisMk unter Verwendung der TabellenkalkulaMon, DVV, Hamburg.
 Zell, A. 1997, SimulaMon neuronaler Netze, Oldenbourg.

Mike Steglich – KI verständlich – 06. Juli 2020 22
Anwendung künstlicher Neuronaler Netze in der Op8mierung

 Danke für Ihre Aufmerksamkeit
You can also read