我一直在尝试玻璃GDK和玻璃的“本机”(Java)开发。我有一个开放的GL应用程序,它在谷歌眼镜上运行得足够好(使用标准的android约定),我希望将它移植到GDK,以利用语音触发器和其他功能。
虽然我当然可以很容易地使用它作为沉浸式游戏(我想至少是这样),但我想要做的是将它用作Live Card。我只是不确定这是不是可行或实用。文档似乎暗示,使用高频渲染卡,这应该是可能的,但在我深入研究之前,我希望有更多经验的人可以参与进来。
(如果这是显而易见的,请原谅我--我是Android新手,过去几年一直在IOS/obj-c领域)
发布于 2014-05-09 04:17:16
XE16在活动卡片中支持OpenGL。使用类GlRenderer:https://developers.google.com/glass/develop/gdk/reference/com/google/android/glass/timeline/GlRenderer
发布于 2013-11-25 16:15:58
我会查看你的应用程序,确定你是否想要更多的用户输入,以及你是想让它存在于时间轴的特定部分,还是只是在用户想要的时候启动它。
具体地说,由于Live Card位于时间轴中,因此它们将无法捕获向后或向前滑动的手势,因为这些手势会在时间轴中导航。请参阅:https://developers.google.com/glass/develop/gdk/ui/index的“何时使用Live Card”部分
如果您使用沉浸式,然而,您将能够使用这些向后和向前滑动手势以及这些其他:https://developers.google.com/glass/develop/gdk/input/touch这将给你完全控制的UI和触摸板,除了向下滑动应退出您的沉浸式。
缺点是,一旦用户退出你的沉浸,他们将需要再次启动它可能与语音触发器,而Live Card可以活在你的时间线的一部分。
你应该能够在LiveCard可以使用的表面或者你选择放在你的活动中的任何视图中进行渲染,这就是沉浸式。例如,GLSurfaceView可能就是您所需要的,并且在内部使用了Surface:http://developer.android.com/guide/topics/graphics/opengl.html。请注意,您可能希望避免使用RemoteViews,但我认为您已经弄清楚了这一点。
https://stackoverflow.com/questions/20169503
复制相似问题