我已经为FHIR服务器配置了Azure API,并且我能够将一些数据推送到其中。使用post man,我能够查询服务器并读取json文件。 现在,我想进入下一步。将数据移动到datalake中,然后在其上应用一些机器学习模型。 首先- Accessing the FHIR data in Microsoft Azure Storage explorer using the managed version -根据这条评论,当使用托管版本时,数据不能在Cosmos DB中查看。 现在,我真的对FHIR-server数据存储在哪里感到困惑。我已经提交了一些病人的信息,我不是真的确定它是否存储在数据
我正在开发一个管道,在这里我必须依次完成几个步骤。
我有6项任务,其中1项是可选的。我会这样命名它们:A, B, C(optional), D, E, F
任务A的返回将在B中使用(直到结束):
A-->B-->(check if it needs to go to C if not goes directly to D)-->C/D-->E-->F
更好的解决方案是,任务(函数)应该是芹菜任务,还是应该在我的python代码中一个接一个地调用它们:
# ... and so on with the tasks
def task_B(args):
# p
我听说过很多关于厨师作为配置管理器或安装和更新服务器的事情,但对于与后者相关的部署和pre+post步骤却不是很多。
我希望在两个内部linux服务器上提供以下内容:
for environments in "env1 env2"
for services in "service1 service2"
for nodes in "node1 node2"
stop service in the fashion of $service
check if service is r