我正在尝试使用tcp输入插件将wso2carbon日志传输到elk
我的wso2 log4jproperties文件配置。
#TCP logger pattern log4j.appender.tcp=org.apache.log4j.net.SocketAppender
log4j.appender.tcp.layout=org.wso2.carbon.utils.logging.TenantAwarePatternLayout
# ConversionPattern will be overridden by the configuration setting in the DB log4
我正在尝试将我的日志从java应用程序推送到端口4512上的logstash。但是,当我运行logstash时,我看到logstash上的日志使用了垃圾字符(如下面的代码片段所示)。有人能建议如何从应用程序端处理,以便java应用程序和logstash都可以根据需要进行交互吗?
package com.logging.messages.Messager;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
public class SockerLogger {
public static void main(String
我在windows系统上创建了一个文本文件,我认为默认的编码方式是ANSI,文件的内容如下所示:
This is\u2019 a sample text file \u2014and it can ....
我使用默认的windows编码样式保存了这个文件,尽管也有一些编码样式,如UTF-8、UTF-16等等。
现在,我想编写一个简单的java函数,在这里我将传递一些输入字符串,并用相应的ascii值替换所有的unicodes。
例如:- \u2019 should be replaced with "'" \u2014 should be replaced with
我有一根绳子:
V posledn\u00edch m\u011bs\u00edc\u00edch se bezpe\u010dnostn\u00ed situace v Libyi zna\u010dn\u011b zhor\u0161ila, o \u010dem\u017e sv\u011bd\u010d\u00ed i ned\u00e1vn\u00e9 n\u00e1hl\u00e9 opu\u0161t\u011bn\u00ed zem\u011b nejen \u010desk\u00fdmi diplomaty. Libyi hroz\u00ed nekontrolovan\u
这是我的错误运行: Welcome to Hero University
Teach well
java.io.StreamCorruptedException: invalid stream header: 22427275
at java.base/java.io.ObjectInputStream.readStreamHeader(ObjectInputStream.java:964)
at java.base/java.io.ObjectInputStream.<init>(ObjectInputStream.java:403)
at univer
虽然题目是个问题,但简短的回答显然是否定的。我试过了。真正的问题是为什么?字符串是一些非ascii字符,如中文,XXX是字符串的当前编码。
>>> u'中文' == '中文'.decode('gbk')
False
//The first one is u'\xd6\xd0\xce\xc4' while the second one u'\u4e2d\u6587'
这个例子在上面。我使用的是中文简化的窗口。默认编码是gbk,python也是如此。我得到了两个unicode对象不相等。
更新
a =
代码如下:
>>> z = u'\u2022'.decode('utf-8', 'ignore')
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
File "/usr/lib/python2.6/encodings/utf_8.py", line 16, in decode
return codecs.utf_8_decode(input, errors, Tru
我在python2.7.2中理解unicode时遇到了问题,所以我尝试了一些空闲测试。有两件事标记为“不确定”。请告诉我他们为什么失败了。至于其他项目,请告诉我我的意见是否正确。
>>> s
'Don\x92t ' # s is a string
>>> u
u'Don\u2019t ' # u is a unicode object
>>> type(u) # confirm u is unicode
<type 'unicode'>
>>> typ
我有两个UTF-8字节的\xf0\x9f\x93\xb1\xf0\x9f\x9a\xac,我想像\xf0\x9f\x93\xb1、\xf0\x9f\x9a\xac那样拆分它--什么是最有效的方法?
我现在要做的是在\xf0分头
问题
如果我按照bigOTHER的建议再次解码和编码它,我就会得到错误的字节返回。
>>> s ='\xf0\x9f\x93\xb1\xf0\x9f\x9a\xac'
>>> u = s.decode("utf-8")
>>> u
u'\U0001f4f1\U0001f6ac&
我在阿拉伯语上表演。守则如下:
from polyglot.text import Text
blob = "مرحبا اسمي rahul agnihotri أنا عمري 41 سنة و الهندية"
text = Text(blob)
text = Text(blob, hint_language_code='ar') #ar stands for arabic
print(text.entities)
在以ubuntu执行上述给定代码之后,我得到了以下给定的错误:
SyntaxError:第4行中的非ASCII字符‘\xd9 9’./ner
我只是尝试解码\uXXXX\uXXXX\uXXXX-like字符串。但我得到一个错误:
$ python
Python 2.7.6 (default, Sep 9 2014, 15:04:36)
[GCC 4.2.1 Compatible Apple LLVM 6.0 (clang-600.0.39)] on darwin
Type "help", "copyright", "credits" or "license" for more information.
>>> print u'\u041e\