Tag: log4j

您是否在Log4j中看到过根据NDC分离文件的appender?

我们只有极少数的客户(少于50个),我们希望每个客户都有自己独立的日志文件,其所有服务器端日志信息都会记录在其中。 我知道您可以使用NDC和filter使用Log4j中的标准appender将日志语句定向到不同的文件,但这需要更多的设置(为所有现有客户创建记录器),并且它不会自动适应添加的新客户进入系统。 你有没有见过一个appender会根据Log4j NDC值将日志语句拆分成单独的文件? 我想我可以建立一个新的appender来做它但我不能说如果我能得到已经构建好的东西我想要。

回滚丢失我的日志消息到文件

我编写了一个测试程序来validationlog4j上logback的性能改进。 但令我惊讶的是,我遇到了这个奇怪的问题。 我正在使用他们的Async和文件追加程序将一些200k日志消息循环写入文件。 但是,每次,它只记录大约140k左右的消息并在此之后停止。 它只打印我的上一个日志语句,表明它已将所有内容写入缓冲区并且程序终止。 如果我只使用Log4j运行相同的程序,我可以在日志文件中看到所有200k消息。 是否有任何基本的架构差异使这种情况发生? 反正有没有避免它? 我们正在考虑从log4j切换到logback,现在这让我重新思考。 这是我的logback configuraiton: %d{HH:mm:ss.SSS} [%thread] %-5level %logger{36} – %msg%n logback.log %date %level [%thread] %logger{10} [%file:%line] %msg%n 这是我的代码—————— public static void main(String[] args) throws InterruptedException { org.slf4j.Logger logbackLogger = LoggerFactory .getLogger(LogbackTest.class); List runs = Arrays.asList(1000, 5000, 50000, 200000); ArrayList logbackRuntimes = new ArrayList(4); for (int run = 0; […]

风暴拓扑不提交

我配置了我的机器zookeeper,nimbus,supervisor正常运行,我的拓扑在LocalCluster中工作 LocalCluster cluster = new LocalCluster(); cluster.submitTopology(“SendPost”, conf, builder.createTopology()); Utils.sleep(10000000000l); cluster.killTopology(“SendPost”); cluster.shutdown(); 现在我想尝试提交我的拓扑结构但它不起作用 /usr/local/storm/bin$ ./storm jar /home/winoria/Desktop/Storm/storm-starter/target/storm-starter-0.0.1-SNAPSHOT-jar-with-dependencies.jar com.winoria.post.PostTopology Post 我得到了以下错误 SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/usr/local/storm/lib/logback-classic-1.0.6.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/home/winoria/Desktop/Storm/storm-starter/target/storm-starter-0.0.1-SNAPSHOT-jar-with-dependencies.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. Running: java -client -Dstorm.options= -Dstorm.home=/usr/local/storm -Djava.library.path=/usr/local/lib:/opt/local/lib:/usr/lib -Dstorm.conf.file= -cp /usr/local /storm/storm-netty-0.9.0.1.jar:/usr/local/storm/storm-console-logging-0.9.0.1.jar:/usr/local/storm/storm-core-0.9.0.1.jar:/usr/local/storm/lib/httpcore-4.1.jar:/usr/local/storm/lib/carbonite-1.5.0.jar:/usr/local/storm/lib/mockito-all-1.9.5.jar:/usr/local/storm/lib/commons-io-1.4.jar:/usr/local/storm/lib/commons-fileupload-1.2.1.jar:/usr/local/storm/lib/jgrapht-0.8.3.jar:/usr/local/storm/lib/ring-jetty-adapter-0.3.11.jar:/usr/local/storm/lib/jzmq-2.1.0.jar:/usr/local/storm/lib/asm-4.0.jar:/usr/local/storm/lib/logback-core-1.0.6.jar:/usr/local/storm/lib/tools.nrepl-0.2.3.jar:/usr/local/storm/lib/compojure-1.1.3.jar:/usr/local/storm/lib/json-simple-1.1.jar:/usr/local/storm/lib/ring-devel-0.3.11.jar:/usr/local/storm/lib/commons-logging-1.1.1.jar:/usr/local/storm/lib/httpclient-4.1.1.jar:/usr/local/storm/lib/reflectasm-1.07-shaded.jar:/usr/local/storm/lib/commons-exec-1.1.jar:/usr/local/storm/lib/guava-13.0.jar:/usr/local/storm/lib/clout-1.0.1.jar:/usr/local/storm/lib/objenesis-1.2.jar:/usr/local/storm/lib/slf4j-api-1.6.5.jar:/usr/local/storm/lib/clojure-1.4.0.jar:/usr/local/storm/lib/jetty-6.1.26.jar:/usr/local/storm/lib/hiccup-0.3.6.jar:/usr/local/storm/lib/clj-stacktrace-0.2.2.jar:/usr/local/storm/lib/log4j-over-slf4j-1.6.6.jar:/usr/local/storm/lib/tools.logging-0.2.3.jar:/usr/local/storm/lib/ring-core-1.1.5.jar:/usr/local/storm/lib/zookeeper-3.3.3.jar:/usr/local/storm/lib/math.numeric-tower-0.0.1.jar:/usr/local/storm/lib/disruptor-2.10.1.jar:/usr/local/storm/lib/minlog-1.2.jar:/usr/local/storm/lib/core.incubator-0.1.0.jar:/usr/local/storm/lib/servlet-api-2.5-20081211.jar:/usr/local/storm/lib/netty-3.6.3.Final.jar:/usr/local/storm/lib/ring-servlet-0.3.11.jar:/usr/local/storm/lib/clj-time-0.4.1.jar:/usr/local/storm/lib/snakeyaml-1.11.jar:/usr/local/storm/lib/commons-codec-1.4.jar:/usr/local/storm/lib/tools.cli-0.2.2.jar:/usr/local/storm/lib/logback-classic-1.0.6.jar:/usr/local/storm/lib/servlet-api-2.5.jar:/usr/local/storm/lib/kryo-2.17.jar:/usr/local/storm/lib/joda-time-2.0.jar:/usr/local/storm/lib/curator-client-1.0.1.jar:/usr/local/storm/lib/libthrift7-0.7.0-2.jar:/usr/local/storm/lib/tools.macro-0.1.0.jar:/usr/local/storm/lib/jline-0.9.94.jar:/usr/local/storm/lib/clojure-complete-0.2.3.jar:/usr/local/storm/lib/curator-framework-1.0.1.jar:/usr/local/storm/lib/commons-lang-2.5.jar:/usr/local/storm/lib/junit-3.8.1.jar:/usr/local/storm/lib/jetty-util-6.1.26.jar:/home/winoria/Desktop/Storm/storm-starter/target/storm-starter-0.0.1-SNAPSHOT-jar-with-dependencies.jar:/usr/local/storm/conf:/usr/local/storm/bin -Dstorm.jar=/home/winoria/Desktop/Storm/storm-starter/target/storm-starter-0.0.1-SNAPSHOT-jar-with-dependencies.jar com.winoria.post.PostTopology […]

log4j2如何将文件中的属性变量读入log4j2

背景:像往常一样,我们有各种生命周期,如dev。 stage,lt,prod所有这些都是在部署时从环境变量$ {lifecycle}中挑选出来的。 所以JNDI设置我们将$ {lifecycle} .properties存储为变量datasource.jndi.name = jdbc / xxx。 由于其他bean也在使用此属性文件,因此validation此类变量已加载且文件位于类路径中,但不知何故,我无法在下面的JDBC Appender中的log4j2.xml中使用此变量。 我也试过像“$ {datasource.jndi.name}”这样的选项,或者我有什么方法可以适应这个解决方案 get datasource.jndi.name from {lifecycle}.properties

管理分布在多台计算机上的大量日志文件

我们已经开始使用第三方平台(GigaSpaces)来帮助我们进行分布式计算。 我们现在要解决的主要问题之一是如何在此分布式环境中管理我们的日志文件。 我们目前有以下设置。 我们的平台分布在8台机器上。 在每台机器上,我们有12-15个进程,使用java.util.logging记录分离日志文件。 在这个平台上,我们有自己的应用程序,使用log4j和日志来分隔文件。 我们还将stdout重定向到一个单独的文件以捕获线程转储等。 这导致大约200个不同的日志文件。 截至目前,我们没有工具来协助管理这些文件。 在下列情况下,这会让我们头疼。 我们事先没有知道在哪个过程中发生问题的故障排除。 在这种情况下,我们当前使用ssh登录每台机器并开始使用grep 。 通过定期检查日志以寻找任何不寻常的东西,试图主动。 在这种情况下,我们当前还登录到所有计算机并使用less和tail查看不同的日志。 设置警报。 我们希望在超过阈值的事件上设置警报。 这看起来很痛苦,需要检查200个日志文件。 今天我们每秒只有大约5个日志事件,但随着我们将越来越多的代码迁移到新平台,这将会增加。 我想问社群以下问题。 你是如何通过分布在通过不同框架记录的几台机器上的许多日志文件来处理类似情况的? 你为什么选择那个特定的解决方案? 您的解决方案是如何运作的? 你觉得什么好,你发现什么不好? 非常感谢。 更新 我们最终评估了Splunk的试用版。 我们对它的工作方式非常满意,并决定购买它。 易于设置,快速搜索和技术倾向的大量function。 我可以推荐任何类似情况的人来检查一下。

如何在JBoss上记录ip地址

我想记录调用我的WS的客户端的IP地址。 我怎么能在JBoss上做到这一点? 编辑: 如果可能的话,我想在JBOSS上使用log4J配置。

有没有办法在浏览器中实时查看我的web-apps tomcat日志?

我正在使用log4j来记录我的数据。 我希望能够在浏览器中与我的网络应用程序一起实时查看日志文件。 像Chainsaw这样的独立工具相当不错,但它们不能满足在浏览器中实时查看日志的目的。 任何人都可以帮我吗?

只有在第二次尝试后,maven安装抛出“打开zip文件时出错”

我尝试使用一些依赖项在我的项目上运行maven install: log4j log4j 1.2.15 org.slf4j slf4j-log4j12 1.5.2 ch.qos.logback logback-classic 0.9.24 org.hibernate hibernate-core 3.3.2.GA org.hibernate hibernate-annotations 3.4.0.GA 我第一次运行mvn install它运行得很好(BUILD SUCCESS)但是第二次(“我在代码中做了一些更改之后”)我尝试运行mvn install并且maven抛出“打开zip文件时出错”。 [ERROR] error: error reading C:\Users\Idan\.m2\repository\javax\jms\jms\1.1\jms- 1.1.jar; error in opening zip file [ERROR] error: error reading C:\Users\Idan\.m2\repository\com\sun\jdmk\jmxtools\1.2.1\jmxtools-1.2.1.jar; error in opening zip file [ERROR] error: error reading C:\Users\Idan\.m2\repository\com\sun\jmx\jmxri\1.2.1\jmxri-1.2.1.jar; error in opening zip file [ERROR] error: error […]

如何使用log4j查看Jersey

我是log4j的新手,我正在尝试使用它来更好地理解为什么我的资源提供了415 Media Type Not Supported标头。 我正在使用以下内容: log4j.rootCategory=WARN, stdout log4j.appender.stdout=org.apache.log4j.ConsoleAppender log4j.appender.stdout.layout=org.apache.log4j.PatternLayout log4j.appender.stdout.layout.ConversionPattern=%d{ABSOLUTE} %5p %t %c:%L – %m%n log4j.category.com.sun.jersey=DEBUG,stdout 这似乎应该可以工作,但我在控制台中没有显示有关POST到达此应用程序的任何内容。 我知道它正在到达应用程序,因为如果我关闭应用程序,POSTer会在尝试POST时抛出“连接被拒绝”。

Log4j2 api在OSGi环境中找不到Log4j2核心

我正在尝试使用log4j2 OSGi包,但似乎log4j2 api在OSGi环境中找不到log4j2核心。 我不断得到以下exception: ERROR StatusLogger Log4j2 could not find a logging implementation. Please add log4j-core to the classpath. Using SimpleLogger to log to the console 我发现在很少的地方讨论了同样的例外,但我仍然无法弄清楚这个问题。 Isuspect我遇到了这个问题,因为log4j2 api无法在log4j2核心的META-INF目录中找到log4j-provider.properties。 有什么线索为什么我得到这个例外,我该如何纠正这个问题? (如果有人有正确的pom文件添加log4j依赖项和捆绑请与我分享) 这些是我使用的依赖项 org.apache.logging.log4j log4j-api 2.2 org.apache.logging.log4j log4j-core 2.2 我使用apache felix作为bundle插件。 发生此错误的原因是log4j2-core的META-INF内部的资源特别是log4j-providoer.properties文件对log4j api不可见。 谢谢!