Python數(shù)學(xué)建模學(xué)習(xí)模擬退火算法多變量函數(shù)優(yōu)化示例解析
1、模擬退火算法
退火是金屬?gòu)娜廴跔顟B(tài)緩慢冷卻、最終達(dá)到能量最低的平衡態(tài)的過(guò)程。模擬退火算法基于優(yōu)化問(wèn)題求解過(guò)程與金屬退火過(guò)程的相似性,以?xún)?yōu)化目標(biāo)為能量函數(shù),以解空間為狀態(tài)空間,以隨機(jī)擾動(dòng)模擬粒子的熱運(yùn)動(dòng)來(lái)求解優(yōu)化問(wèn)題([1] KIRKPATRICK,1988)。
模擬退火算法結(jié)構(gòu)簡(jiǎn)單,由溫度更新函數(shù)、狀態(tài)產(chǎn)生函數(shù)、狀態(tài)接受函數(shù)和內(nèi)循環(huán)、外循環(huán)終止準(zhǔn)則構(gòu)成。
溫度更新函數(shù)是指退火溫度緩慢降低的實(shí)現(xiàn)方案,也稱(chēng)冷卻進(jìn)度表;
狀態(tài)產(chǎn)生函數(shù)是指由當(dāng)前解隨機(jī)產(chǎn)生新的候選解的方法;
狀態(tài)接受函數(shù)是指接受候選解的機(jī)制,通常采用Metropolis準(zhǔn)則;
外循環(huán)是由冷卻進(jìn)度表控制的溫度循環(huán);
內(nèi)循環(huán)是在每一溫度下循環(huán)迭代產(chǎn)生新解的次數(shù),也稱(chēng)Markov鏈長(zhǎng)度。
模擬退火算法的基本流程如下:
(1)初始化:初始溫度T,初始解狀態(tài)s,迭代次數(shù)L;
(2)對(duì)每個(gè)溫度狀態(tài),重復(fù) L次循環(huán)產(chǎn)生和概率性接受新解:
(3)通過(guò)變換操作由當(dāng)前解s 產(chǎn)生新解s′;
(4)計(jì)算能量差 ∆E,即新解的目標(biāo)函數(shù)與原有解的目標(biāo)函數(shù)的差;
(5)若∆E <0則接受s′作為新的當(dāng)前解,否則以概率exp(-∆E/T) 接受s′ 作為新的當(dāng)前解;
(6)在每個(gè)溫度狀態(tài)完成 L次內(nèi)循環(huán)后,降低溫度 T,直到達(dá)到終止溫度。
2、多變量函數(shù)優(yōu)化問(wèn)題
選取經(jīng)典的函數(shù)優(yōu)化問(wèn)題和組合優(yōu)化問(wèn)題作為測(cè)試案例。
問(wèn)題 1:Schwefel 測(cè)試函數(shù),是復(fù)雜的多峰函數(shù),具有大量局部極值區(qū)域。
本文取 d=10, x=[-500,500],函數(shù)在 X=(420.9687,…420.9687)處為全局最小值 f(X)=0.0。
F(X)=418.9829×n-∑(i=1,n)〖xi* sin(√(|xi|)) 〗
使用模擬退火算法的基本方案:控制溫度按照 T(k) = a * T(k-1) 指數(shù)衰減,衰減系數(shù)取 a;如式(1)按照 Metropolis 準(zhǔn)則接受新解。對(duì)于問(wèn)題 1(Schwefel函數(shù)),通過(guò)對(duì)當(dāng)前解的一個(gè)自變量施加正態(tài)分布的隨機(jī)擾動(dòng)產(chǎn)生新解。
3、模擬退火算法 Python 程序
# 模擬退火算法 程序:多變量連續(xù)函數(shù)優(yōu)化
# Program: SimulatedAnnealing_v1.py
# Purpose: Simulated annealing algorithm for function optimization
# Copyright 2021 YouCans, XUPT
# Crated:2021-04-30
# = 關(guān)注 Youcans,分享原創(chuàng)系列 https://blog.csdn.net/youcans =
# -*- coding: utf-8 -*-
import math # 導(dǎo)入模塊
import random # 導(dǎo)入模塊
import pandas as pd # 導(dǎo)入模塊
import numpy as np # 導(dǎo)入模塊 numpy,并簡(jiǎn)寫(xiě)成 np
import matplotlib.pyplot as plt # 導(dǎo)入模塊 matplotlib.pyplot,并簡(jiǎn)寫(xiě)成 plt
from datetime import datetime
# 子程序:定義優(yōu)化問(wèn)題的目標(biāo)函數(shù)
def cal_Energy(X, nVar):
# 測(cè)試函數(shù) 1: Schwefel 測(cè)試函數(shù)
# -500 <= Xi <= 500
# 全局極值:(420.9687,420.9687,...),f(x)=0.0
sum = 0.0
for i in range(nVar):
sum += X[i] * np.sin(np.sqrt(abs(X[i])))
fx = 418.9829 * nVar - sum
return fx
# 子程序:模擬退火算法的參數(shù)設(shè)置
def ParameterSetting():
cName = "funcOpt" # 定義問(wèn)題名稱(chēng)
nVar = 2 # 給定自變量數(shù)量,y=f(x1,..xn)
xMin = [-500, -500] # 給定搜索空間的下限,x1_min,..xn_min
xMax = [500, 500] # 給定搜索空間的上限,x1_max,..xn_max
tInitial = 100.0 # 設(shè)定初始退火溫度(initial temperature)
tFinal = 1 # 設(shè)定終止退火溫度(stop temperature)
alfa = 0.98 # 設(shè)定降溫參數(shù),T(k)=alfa*T(k-1)
meanMarkov = 100 # Markov鏈長(zhǎng)度,也即內(nèi)循環(huán)運(yùn)行次數(shù)
scale = 0.5 # 定義搜索步長(zhǎng),可以設(shè)為固定值或逐漸縮小
return cName, nVar, xMin, xMax, tInitial, tFinal, alfa, meanMarkov, scale
# 模擬退火算法
def OptimizationSSA(nVar,xMin,xMax,tInitial,tFinal,alfa,meanMarkov,scale):
# ====== 初始化隨機(jī)數(shù)發(fā)生器 ======
randseed = random.randint(1, 100)
random.seed(randseed) # 隨機(jī)數(shù)發(fā)生器設(shè)置種子,也可以設(shè)為指定整數(shù)
# ====== 隨機(jī)產(chǎn)生優(yōu)化問(wèn)題的初始解 ======
xInitial = np.zeros((nVar)) # 初始化,創(chuàng)建數(shù)組
for v in range(nVar):
# random.uniform(min,max) 在 [min,max] 范圍內(nèi)隨機(jī)生成一個(gè)實(shí)數(shù)
xInitial[v] = random.uniform(xMin[v], xMax[v])
# 調(diào)用子函數(shù) cal_Energy 計(jì)算當(dāng)前解的目標(biāo)函數(shù)值
fxInitial = cal_Energy(xInitial, nVar)
# ====== 模擬退火算法初始化 ======
xNew = np.zeros((nVar)) # 初始化,創(chuàng)建數(shù)組
xNow = np.zeros((nVar)) # 初始化,創(chuàng)建數(shù)組
xBest = np.zeros((nVar)) # 初始化,創(chuàng)建數(shù)組
xNow[:] = xInitial[:] # 初始化當(dāng)前解,將初始解置為當(dāng)前解
xBest[:] = xInitial[:] # 初始化最優(yōu)解,將當(dāng)前解置為最優(yōu)解
fxNow = fxInitial # 將初始解的目標(biāo)函數(shù)置為當(dāng)前值
fxBest = fxInitial # 將當(dāng)前解的目標(biāo)函數(shù)置為最優(yōu)值
print('x_Initial:{:.6f},{:.6f},\tf(x_Initial):{:.6f}'.format(xInitial[0], xInitial[1], fxInitial))
recordIter = [] # 初始化,外循環(huán)次數(shù)
recordFxNow = [] # 初始化,當(dāng)前解的目標(biāo)函數(shù)值
recordFxBest = [] # 初始化,最佳解的目標(biāo)函數(shù)值
recordPBad = [] # 初始化,劣質(zhì)解的接受概率
kIter = 0 # 外循環(huán)迭代次數(shù),溫度狀態(tài)數(shù)
totalMar = 0 # 總計(jì) Markov 鏈長(zhǎng)度
totalImprove = 0 # fxBest 改善次數(shù)
nMarkov = meanMarkov # 固定長(zhǎng)度 Markov鏈
# ====== 開(kāi)始模擬退火優(yōu)化 ======
# 外循環(huán),直到當(dāng)前溫度達(dá)到終止溫度時(shí)結(jié)束
tNow = tInitial # 初始化當(dāng)前溫度(current temperature)
while tNow >= tFinal: # 外循環(huán),直到當(dāng)前溫度達(dá)到終止溫度時(shí)結(jié)束
# 在當(dāng)前溫度下,進(jìn)行充分次數(shù)(nMarkov)的狀態(tài)轉(zhuǎn)移以達(dá)到熱平衡
kBetter = 0 # 獲得優(yōu)質(zhì)解的次數(shù)
kBadAccept = 0 # 接受劣質(zhì)解的次數(shù)
kBadRefuse = 0 # 拒絕劣質(zhì)解的次數(shù)
# ---內(nèi)循環(huán),循環(huán)次數(shù)為Markov鏈長(zhǎng)度
for k in range(nMarkov): # 內(nèi)循環(huán),循環(huán)次數(shù)為Markov鏈長(zhǎng)度
totalMar += 1 # 總 Markov鏈長(zhǎng)度計(jì)數(shù)器
# ---產(chǎn)生新解
# 產(chǎn)生新解:通過(guò)在當(dāng)前解附近隨機(jī)擾動(dòng)而產(chǎn)生新解,新解必須在 [min,max] 范圍內(nèi)
# 方案 1:只對(duì) n元變量中的一個(gè)進(jìn)行擾動(dòng),其它 n-1個(gè)變量保持不變
xNew[:] = xNow[:]
v = random.randint(0, nVar-1) # 產(chǎn)生 [0,nVar-1]之間的隨機(jī)數(shù)
xNew[v] = xNow[v] + scale * (xMax[v]-xMin[v]) * random.normalvariate(0, 1)
# random.normalvariate(0, 1):產(chǎn)生服從均值為0、標(biāo)準(zhǔn)差為 1 的正態(tài)分布隨機(jī)實(shí)數(shù)
xNew[v] = max(min(xNew[v], xMax[v]), xMin[v]) # 保證新解在 [min,max] 范圍內(nèi)
# ---計(jì)算目標(biāo)函數(shù)和能量差
# 調(diào)用子函數(shù) cal_Energy 計(jì)算新解的目標(biāo)函數(shù)值
fxNew = cal_Energy(xNew, nVar)
deltaE = fxNew - fxNow
# ---按 Metropolis 準(zhǔn)則接受新解
# 接受判別:按照 Metropolis 準(zhǔn)則決定是否接受新解
if fxNew < fxNow: # 更優(yōu)解:如果新解的目標(biāo)函數(shù)好于當(dāng)前解,則接受新解
accept = True
kBetter += 1
else: # 容忍解:如果新解的目標(biāo)函數(shù)比當(dāng)前解差,則以一定概率接受新解
pAccept = math.exp(-deltaE / tNow) # 計(jì)算容忍解的狀態(tài)遷移概率
if pAccept > random.random():
accept = True # 接受劣質(zhì)解
kBadAccept += 1
else:
accept = False # 拒絕劣質(zhì)解
kBadRefuse += 1
# 保存新解
if accept == True: # 如果接受新解,則將新解保存為當(dāng)前解
xNow[:] = xNew[:]
fxNow = fxNew
if fxNew < fxBest: # 如果新解的目標(biāo)函數(shù)好于最優(yōu)解,則將新解保存為最優(yōu)解
fxBest = fxNew
xBest[:] = xNew[:]
totalImprove += 1
scale = scale*0.99 # 可變搜索步長(zhǎng),逐步減小搜索范圍,提高搜索精度
# ---內(nèi)循環(huán)結(jié)束后的數(shù)據(jù)整理
# 完成當(dāng)前溫度的搜索,保存數(shù)據(jù)和輸出
pBadAccept = kBadAccept / (kBadAccept + kBadRefuse) # 劣質(zhì)解的接受概率
recordIter.append(kIter) # 當(dāng)前外循環(huán)次數(shù)
recordFxNow.append(round(fxNow, 4)) # 當(dāng)前解的目標(biāo)函數(shù)值
recordFxBest.append(round(fxBest, 4)) # 最佳解的目標(biāo)函數(shù)值
recordPBad.append(round(pBadAccept, 4)) # 最佳解的目標(biāo)函數(shù)值
if kIter%10 == 0: # 模運(yùn)算,商的余數(shù)
print('i:{},t(i):{:.2f}, badAccept:{:.6f}, f(x)_best:{:.6f}'.\
format(kIter, tNow, pBadAccept, fxBest))
# 緩慢降溫至新的溫度,降溫曲線:T(k)=alfa*T(k-1)
tNow = tNow * alfa
kIter = kIter + 1
# ====== 結(jié)束模擬退火過(guò)程 ======
print('improve:{:d}'.format(totalImprove))
return kIter,xBest,fxBest,fxNow,recordIter,recordFxNow,recordFxBest,recordPBad
# 結(jié)果校驗(yàn)與輸出
def ResultOutput(cName,nVar,xBest,fxBest,kIter,recordFxNow,recordFxBest,recordPBad,recordIter):
# ====== 優(yōu)化結(jié)果校驗(yàn)與輸出 ======
fxCheck = cal_Energy(xBest,nVar)
if abs(fxBest - fxCheck)>1e-3: # 檢驗(yàn)?zāi)繕?biāo)函數(shù)
print("Error 2: Wrong total millage!")
return
else:
print("\nOptimization by simulated annealing algorithm:")
for i in range(nVar):
print('\tx[{}] = {:.6f}'.format(i,xBest[i]))
print('\n\tf(x):{:.6f}'.format(fxBest))
return
# 加粗樣式
def main():
# 參數(shù)設(shè)置,優(yōu)化問(wèn)題參數(shù)定義,模擬退火算法參數(shù)設(shè)置
[cName, nVar, xMin, xMax, tInitial, tFinal, alfa, meanMarkov, scale] = ParameterSetting()
# print([nVar, xMin, xMax, tInitial, tFinal, alfa, meanMarkov, scale])
# 模擬退火算法
[kIter,xBest,fxBest,fxNow,recordIter,recordFxNow,recordFxBest,recordPBad] \
= OptimizationSSA(nVar,xMin,xMax,tInitial,tFinal,alfa,meanMarkov,scale)
# print(kIter, fxNow, fxBest, pBadAccept)
# 結(jié)果校驗(yàn)與輸出
ResultOutput(cName, nVar,xBest,fxBest,kIter,recordFxNow,recordFxBest,recordPBad,recordIter)
if __name__ == '__main__':
main()
4、程序運(yùn)行結(jié)果
x_Initial:-143.601793,331.160277, f(x_Initial):959.785447 i:0,t(i):100.00, badAccept:0.469136, f(x)_best:300.099320 i:10,t(i):81.71, badAccept:0.333333, f(x)_best:12.935760 i:20,t(i):66.76, badAccept:0.086022, f(x)_best:2.752498 ... i:200,t(i):1.76, badAccept:0.000000, f(x)_best:0.052055 i:210,t(i):1.44, badAccept:0.000000, f(x)_best:0.009448 i:220,t(i):1.17, badAccept:0.000000, f(x)_best:0.009448 improve:18 Optimization by simulated annealing algorithm: x[0] = 420.807471 x[1] = 420.950005 f(x):0.003352
以上就是Python數(shù)學(xué)建模學(xué)習(xí)模擬退火算法多變量函數(shù)優(yōu)化示例解析的詳細(xì)內(nèi)容,更多關(guān)于數(shù)學(xué)建模模擬退火算法的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!
- python中的PywebIO模塊制作一個(gè)數(shù)據(jù)大屏
- Python PyWebIO實(shí)現(xiàn)網(wǎng)頁(yè)版數(shù)據(jù)查詢(xún)器
- Python如何處理大數(shù)據(jù)?3個(gè)技巧效率提升攻略(推薦)
- python人工智能tensorflow優(yōu)化器Optimizer算法匯總
- python優(yōu)化數(shù)據(jù)預(yù)處理方法Pandas pipe詳解
- python編程學(xué)習(xí)使用管道Pipe編寫(xiě)優(yōu)化代碼
- python人工智能深度學(xué)習(xí)算法優(yōu)化
- Python PyWebIO提升團(tuán)隊(duì)效率使用介紹
相關(guān)文章
檢測(cè)pytorch是否使用GPU的方法小結(jié)
pytorch在服務(wù)器上跑的很慢,nvidia-smi顯示GPU利用率一直是0%,所以本文總結(jié)了一些可以檢測(cè)深度學(xué)習(xí)算法是否在使用GPU的方法,需要的朋友可以參考下2023-12-12
Python Paramiko實(shí)現(xiàn)SSHv2協(xié)議輕松管理遠(yuǎn)程服務(wù)器
這篇文章主要為大家介紹了Python Paramiko實(shí)現(xiàn)SSHv2協(xié)議輕松管理遠(yuǎn)程服務(wù)器,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2024-01-01
Python高級(jí)編程之消息隊(duì)列(Queue)與進(jìn)程池(Pool)實(shí)例詳解
這篇文章主要介紹了Python高級(jí)編程之消息隊(duì)列(Queue)與進(jìn)程池(Pool),結(jié)合實(shí)例形式詳細(xì)分析了Python消息隊(duì)列與進(jìn)程池的相關(guān)原理、使用技巧與操作注意事項(xiàng),需要的朋友可以參考下2019-11-11
Python中time.sleep(0.001)是否真的只等待1毫秒
這篇文章主要介紹了Python中time.sleep(0.001)是否真的只等待1毫秒,具有很好的參考價(jià)值,希望對(duì)大家有所幫助,如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2024-06-06

