我正在学习利用开发,在编写编码器时,我想知道“坏字符”的根本原因是什么?
我所能想到的唯一解释是,在缓冲区溢出的情况下,在输入和访问它的那一刻之间会对缓冲区进行更改/操作。
这种解释太模糊了,不可能是正确的,在这些情况下只需要一小部分字符肯定还有其他原因。
如果有人能给我一个更满意的答案,我将不胜感激。谢谢!
发布于 2022-05-08 21:07:12
没有一个普遍的根本原因,坏的字符在利用报酬。在一个缓冲区中被认为是坏字符的东西在另一个缓冲区中不被认为是坏字符,除非该字符是空字节,因为在处理C字符串时,该字符几乎总是一个坏字符。
什么被认为是不好的字符是非常依赖于应用程序(和函数),你专门看。任何可以被认为是“控制”字符(影响如何解析某物的字符)--例如HTTP中的\r
--都可能被认为是“坏字符”。
https://security.stackexchange.com/questions/206627
复制相似问题