腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
使用
得分
惩罚
来
影响
下一步
走
法
optaplanner
我们
使用
的版本是5.5.0最终版。以前
使用
以下代码行:我假设我可以以某种方式将违规
惩罚
与已声明的违规实体相关联,并
影响
Optaplanner在
下一步
中选择与该实体相关的移动。
浏览 5
提问于2016-08-10
得票数 0
1
回答
Minimax搜索:如何打印从所选
下一步
移动到叶的路径
chess
、
minimax
我将尝试详细说明:我有一个AI国际象棋游戏,它
使用
minimax搜索来生成计算机的
下一步
棋。在沿着极小极大树向下移动到选定的深度(例如5)后,它最终找到下一个最佳移动。出于我自己的测试目的,我希望能够打印出
下一步
最佳
走
法
(表示为棋盘配置),以及用于确定
下一步
棋
得分
的以下4步棋。也就是说,minimax树中每个较低级别的最佳选择的路径,从最终被选择为最佳
下一步
的顶级节点开始。有什么想法吗?
浏览 0
提问于2012-06-07
得票数 1
回答已采纳
2
回答
定义可能的最佳
走
法
(AI - game)
python
、
artificial-intelligence
现在,我知道如何根据给定动作点的数量为每个兵生成可能的移动列表,但我会阻止
下一步
,选择最好的移动。例如5个动作点,最好是移动一个兵3个单元格,另2个单元格移动一个兵5个单元格。我是否必须
使用
特定的算法或应用编程概念...?好吧,我迷路了。 希望你能帮助我:)
浏览 0
提问于2016-04-28
得票数 0
1
回答
OptaPlanner:与分数相关的“约束匹配”只是语义上的事情吗?
optaplanner
约束匹配是否仅用于计算总分,并旨在帮助用户查看
得分
结果,还是该信息用于寻找更好的解决方案?目前,我正在做一个考试调度程序。一项要求是最优地分配单个学生的考试。每个学生的考试次数各不相同。有两种不同的方法可以做到这一点: 选项B:根据实际的impact.=>
来
惩罚
每一次考试,只有
浏览 4
提问于2021-06-02
得票数 0
回答已采纳
2
回答
寻找确定最优序列的动态算法
algorithm
、
dynamic-programming
然而,他
走
超过120英尺,他会很容易感到疲倦,而他旅行较少,将会有一个时间上的劣势,坐在板凳上,然后站起来。因此,对于每次步行,该步行的
惩罚
将是(120-x)^4,其中x是他自上次在长椅上休息后到目前为止所
走
的距离。如果每个板凳相隔120英尺,这将不会给他任何
惩罚
,因为他可以在他遇到的每个板凳上休息,这将使120英尺旅行,没有
惩罚
。我们的目标是找到一种算法,以一种
使用
动态编程的方式,以良好的时间复杂度给他最小的总体
惩罚
。他在替补席上休息了多少次并不重要,重要的是找到一个
浏览 2
提问于2012-02-22
得票数 1
5
回答
简单实用的人工智能奥赛罗游戏的想法(又名: reversi)
c#
、
artificial-intelligence
、
game-engine
嗨,我在哪里可以找到一些关于如何为这个游戏实现AI的信息。以前从来没有做过任何类型的人工智能。
浏览 0
提问于2011-03-27
得票数 2
回答已采纳
1
回答
ordisurf vs mgcv:gam模型
r
、
vegan
、
gam
我想更新R vegan中ordisurf函数后面的GAM模型(添加随机因子)。为此,我首先构建了应该与ordisurf后面的模型相同的模型,如下所述:ord <-metaMDS(dune, k=3) scrs <- data.frame(sco
浏览 0
提问于2019-06-21
得票数 2
1
回答
如果对手打得不是最优,对MinMax算法的
影响
algorithm
、
artificial-intelligence
、
game-theory
、
gkminmaxstrategist
如果对手不是最优或理性的,它如何
影响
AI算法如Minmax算法在基于回合的零和游戏中获胜的机会?当标准的Minmax算法假设对手处于最佳状态,并根据上述假设做出决定时,是否有可能通过不是最优的
走
法
来
击败Minmax算法?
浏览 17
提问于2020-04-04
得票数 1
2
回答
击败minimax对手
artificial-intelligence
、
minimax
、
alpha-beta-pruning
我知道对手AI将
使用
带有alpha beta剪枝的极大极小算法。有意识地选择一个非最优节点是否有一定的价值?这可能会导致对手的CPU时间
惩罚
,因为他们必须返回并重新评估树。这会给我带来<em
浏览 0
提问于2013-03-29
得票数 2
回答已采纳
1
回答
Minimax算法Tic Tac Toe中间状态
java
、
search
、
artificial-intelligence
、
minimax
、
alpha-beta-pruning
假设我们一开始有3个位置,或者玩家可以通过玩某个位置
来
达到这些状态。这些位置进一步导致了
下一步
的电路板配置。
浏览 19
提问于2017-06-23
得票数 2
2
回答
如何估算
使用
递归Java的程序的时间和内存消耗
java
、
performance
、
recursion
、
memory
、
backtracking
我找到了所有可能的开放解决方案,并计算了程序的内存
使用
量和时间消耗。我
使用
递归,在骑士的每次移动中,我都在计算骑士的
下一步
可能的
走
法
。 问题是如何在更大的桌面上计算内存和时间消耗。在Java中,通常
使用
哪种工具
来
估计那些不可能实际运行的程序的这些值?它应该仅仅是
使用
O-notation的假设吗?
浏览 2
提问于2016-11-17
得票数 0
2
回答
Cookiewall和内容遮盖
cookies
、
seo
、
cloaking
为了遵守欧洲的cookie
法
,我们应该实施cookie wall。但搜索引擎应该能够看到并索引实际的页面内容,而不是cookie wall。流行的WordPress Cookie wall插件也通过检查机器人和爬虫/真实用户
来
实现这种方式 我的问题是:谷歌是否认为这是内容伪装,并
惩罚
搜索引擎优化排名?或者,有没有其他方法可以在不
影响
SEO排名的情况下实现cookie围墙
浏览 2
提问于2016-03-21
得票数 2
2
回答
minimax算法怎么会更乐观呢?
minimax
Minimax似乎在不输方面做得很好,但它假设对手不会犯错误,这是非常宿命的。当然,许多游戏都是平局,但一个人应该玩“尽可能努力地争取胜利而不冒输的风险”,即使没有强制胜利的情况下也是如此。也就是说,给定两棵树,在给定最佳游戏的情况下,具有相同(绘制的)结束位置的两棵树,如何调整算法以在对手进行次优移动时选择最有可能获胜的树,或者使对手更容易出错? 以Tic-Tac-Toe为例,较强的玩家通常会以建立叉子为目标,从而确保胜利。即使对手可以预见到这样的把戏,并提前停止,他们也更有可能错过这一点,而不是你只是把两个X放在空行上,希望他们暂时忘记他们在玩什么游戏。类似地,一个强大的玩家会倾向于从中心
浏览 0
提问于2013-12-14
得票数 1
1
回答
OptaPlanner:从多个供应商到客户的快递员
optaplanner
我是OptaPlanner的新手,我看到了如何通过修改非常有用的示例集
来
相当容易地解决一些问题。我正在尝试找出对我的问题进行建模的最好方法。我面对的是哪一类优化问题,我正在努力寻找最好的方法
来
模拟这个问题。有什么建议吗?
浏览 2
提问于2014-02-27
得票数 0
1
回答
如何在类国际象棋游戏中实现极大极小算法?
artificial-intelligence
、
chess
、
minimax
为此,我
使用
了minimax算法的一个变体,该算法遍历每一个可能的移动,然后假设对于N个移动,对手(和他们)将玩得最好。对于深度为2的情况,我只需调用另一个Depth1方
法
,但更改了颜色。对于深度为3的情况,我再次调用它作为人工智能
下一步
理论上的动作。这工作得很好,但在深度为4时,它就不再以逻辑方式工作。这是因为算法假设“最佳”
走
法
是贪婪的(也就是说,最优
走
法
是取走任何价值最高的棋子,这不一定是游戏本身的最佳
走
法
,因为在这个过程中,你
浏览 6
提问于2021-08-06
得票数 1
1
回答
有没有可能暴力破解这个5*5的Tic-Tac-Toe游戏?
tic-tac-toe
、
2d-games
所以我编造了这个游戏,但我找不到一个好的策略
来
永远获胜。所以你画了一块5×5的板。然后每个玩家轮流放一个十字和一个圆圈。然后我们计算“分数”。然后,对每行、每列和每一条对角线进行水平、垂直和双向计数。我经常玩这个游戏,但总是很难知道
下一步
该放在哪里。我已经注意到,先开始会给你带来很大的优势。为了弥补这一点,我将第一个先发的球员的分数降低一分。 有没有可能用蛮力迫使计算机学习每一场游戏的最佳
走
法
浏览 28
提问于2021-05-25
得票数 1
回答已采纳
2
回答
Minimax的评价函数是启发式函数吗?
artificial-intelligence
、
heuristics
Minimax的评价函数是启发式函数吗?
浏览 1
提问于2010-10-17
得票数 2
回答已采纳
1
回答
巧克力中的资源分配和
惩罚
optimization
、
modeling
、
constraint-programming
、
choco
我的直觉:我看不出有什么方法
来
累积点球,所以我的直觉是有一个矩阵,每个人都有一系列的“
惩罚
”,所以如果我有加班费,
惩罚
我就有5罚,如果他不想做
惩罚
4。那么我有一个IntVar分数,那就是点球的总和,我优化了
得分
。 如何初始化这些变量?在护士调度示例中,
使用
了这种策略: solver.set(IntStrategyFactory.domOverWDeg(ArrayUtils.flatten(assignment),System.curr
浏览 4
提问于2016-01-18
得票数 0
2
回答
如何
使用
html5视频重播棋类游戏
javascript
、
html
、
browser
、
html5-video
是否可以将棋盘游戏(例如,国际象棋)的
走
法
重放为html5视频,两步
走
法
之间具有可配置的延迟。 由于这是几乎所有游戏的常见要求,我希望应该有一种标准的方法
来
做到这一点。一种方法是
使用
JavaScript和DOM操作
来
绘制动作,但我正在尝试给它提供原生的html5视频用户体验。
浏览 1
提问于2012-11-05
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券