url stringlengths 11 2.25k | text stringlengths 88 50k | ts timestamp[s]date 2026-01-13 08:47:33 2026-01-13 09:30:40 |
|---|---|---|
https://www.linkedin.com/products/amdocs-lowcode-experience-platform/#main-content | Amdocs Low-Code Experience Platform | LinkedIn Skip to main content LinkedIn Amdocs in Asan Expand search This button displays the currently selected search type. When expanded it provides a list of search options that will switch the search inputs to match the current selection. Jobs People Learning Clear text Clear text Clear text Clear text Clear text Join now Sign in Amdocs Low-Code Experience Platform Low-Code Development Platforms by Amdocs See who's skilled in this Add as skill Learn more Report this product About Enable business users to design, control and launch new experiences on their own with no technical skills needed. Similar products Salesforce Platform Salesforce Platform Low-Code Development Platforms Zoho Creator Zoho Creator Low-Code Development Platforms ServiceNow App Engine ServiceNow App Engine Low-Code Development Platforms Spring Boot Spring Boot Low-Code Development Platforms OutSystems OutSystems Low-Code Development Platforms OpenText Developer Cloud OpenText Developer Cloud Low-Code Development Platforms Sign in to see more Show more Show less Amdocs products Amdocs CatalogONE Amdocs CatalogONE Catalog Management Software Amdocs Customer Engagement Amdocs Customer Engagement Customer Engagement Software Amdocs Freestyle Billing Amdocs Freestyle Billing Billing & Invoicing Software Amdocs MarketONE Amdocs MarketONE OTT Platforms Amdocs Microservices Management Platform Amdocs Microservices Management Platform Platform as a Service (PaaS) Software Amdocs TechInsights Amdocs TechInsights Business Process Management Software Real-Time Billing Real-Time Billing Billing & Invoicing Software Show more Show less LinkedIn © 2026 About Accessibility User Agreement Privacy Policy Cookie Policy Copyright Policy Brand Policy Guest Controls Community Guidelines English (English) Language | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/what-is-network-monitor.html | Using Network Synthetic Monitor - Amazon CloudWatch Using Network Synthetic Monitor - Amazon CloudWatch Documentation Amazon CloudWatch User Guide Key features Terminology and components Requirements and limitations Using Network Synthetic Monitor Network Synthetic Monitor provides visibility into the performance of the network connecting your AWS hosted applications to your on-premises destinations, and allows you to identify the source of any network performance degradation within minutes. Network Synthetic Monitor is fully managed by AWS, and doesn't require separate agents on monitored resources. Use Network Synthetic Monitor to visualize packet loss and latency of your hybrid network connections, and set alerts and thresholds. Then, based on this information, you can take action to improve your end users’ experience. Network Synthetic Monitor is intended for network operators and application developers who want real-time insights into network performance. Network Synthetic Monitor key features Use Network Synthetic Monitor to benchmark your changing hybrid network environment with continuous real-time packet loss and latency metrics. When you connect by using AWS Direct Connect, Network Synthetic Monitor can help you to rapidly diagnose network degradation within the AWS network with the network health indicator (NHI), which Network Synthetic Monitor writes to your Amazon CloudWatch account. The NHI metric is a binary value, based on a probabilistic score about whether network degradation is within AWS. Network Synthetic Monitor provides a fully-managed agent approach to monitoring, so you don’t need to install agents either on VPCs or on-premises. To get started, you just need to specify a VPC subnet and an on-premises IP address. You can establish a private connection between your VPC and Network Synthetic Monitor resources by using AWS PrivateLink. For more information, see Using CloudWatch, CloudWatch Synthetics, and CloudWatch Network Monitoring with interface VPC endpoints . Network Synthetic Monitor publishes metrics to CloudWatch Metrics. You can create dashboards to view your metrics, and also create actionable thresholds and alarms on the metrics that are specific to your application. For more information, see How Network Synthetic Monitor works . Network Synthetic Monitor terminology and components Probes — A probe is the traffic that's sent from an AWS-hosted resource to an on-premises destination IP address. Network Synthetic Monitor metrics measured by the probe are written into your CloudWatch account for every probe that's configured in a monitor. Monitor — A monitor displays network performance and other health information for traffic that you have created Network Synthetic Monitor probes for. You add probes as part of creating a monitor, and then you can view network performance metrics information using the monitor. When you create a monitor for an application, you add an AWS hosted resource as the network source. Network Synthetic Monitor then creates a list of all possible probes between the AWS hosted resource and your destination IP addresses. You select the destinations that you want to monitor traffic for. AWS network source — An AWS network source is a monitor probe's originating AWS source, which is a subnet in one of your VPCs. Destination — A destination is the target in your on-premises network for the AWS network source. A destination is a combination of your on-premises IP addresses, network protocols, ports, and network packet size. IPv4 and IPv6 addresses are both supported. Network Synthetic Monitor requirements and limitations The following summarizes requirements and limitations for Network Synthetic Monitor. For specific quotas (or limits), see Network Synthetic Monitor . Monitor subnets must be owned by the same account as the monitor. Network Synthetic Monitor doesn't provide automatic network failover in the event of an AWS network issue. There's a charge for each probe that you create. For pricing details, see Pricing for Network Synthetic Monitor . Javascript is disabled or is unavailable in your browser. To use the Amazon Web Services Documentation, Javascript must be enabled. Please refer to your browser's Help pages for instructions. Document Conventions Service-linked role How Network Synthetic Monitor works Did this page help you? - Yes Thanks for letting us know we're doing a good job! If you've got a moment, please tell us what we did right so we can do more of it. Did this page help you? - No Thanks for letting us know this page needs work. We're sorry we let you down. If you've got a moment, please tell us how we can make the documentation better. | 2026-01-13T09:29:26 |
https://www.linkedin.com/products/splunk-user-behavior-analytics/ | Splunk User Behavior Analytics | LinkedIn Skip to main content LinkedIn Splunk in Asan Expand search This button displays the currently selected search type. When expanded it provides a list of search options that will switch the search inputs to match the current selection. Jobs People Learning Clear text Clear text Clear text Clear text Clear text Join now Sign in Splunk User Behavior Analytics User & Entity Behavior Analytics (UEBA) Software by Splunk See who's skilled in this Add as skill Learn more Report this product About Protect against insider threats using machine learning. Splunk User Behavior Analytics (UBA) delivers the insights you need to find unknown threats and anomalous behavior. Similar products Citrix Analytics for Security Citrix Analytics for Security User & Entity Behavior Analytics (UEBA) Software Teramind Teramind User & Entity Behavior Analytics (UEBA) Software DTEX InTERCEPT Platform DTEX InTERCEPT Platform User & Entity Behavior Analytics (UEBA) Software Quantum Armor - Attack Surface Management Quantum Armor - Attack Surface Management User & Entity Behavior Analytics (UEBA) Software Cyber Triage Cyber Triage User & Entity Behavior Analytics (UEBA) Software Teramind | UAM Teramind | UAM User & Entity Behavior Analytics (UEBA) Software Sign in to see more Show more Show less Splunk products Splunk Cloud Platform Splunk Cloud Platform Application Performance Monitoring (APM) Software Splunk Enterprise Splunk Enterprise Big Data Analytics Software Splunk Enterprise Security Splunk Enterprise Security Security Information & Event Management (SIEM) Software Splunk IT Service Intelligence (ITSI) Splunk IT Service Intelligence (ITSI) AIOps Platforms Splunk Mission Control Splunk Mission Control Splunk Security Orchestration, Automation and Response (SOAR) Splunk Security Orchestration, Automation and Response (SOAR) Security Orchestration, Automation, and Response (SOAR) Software Show more Show less LinkedIn © 2026 About Accessibility User Agreement Privacy Policy Cookie Policy Copyright Policy Brand Policy Guest Controls Community Guidelines English (English) Language | 2026-01-13T09:29:26 |
https://git-scm.com/book/tl/v2/Distributed-Git-Maintaining-a-Project | Git - Maintaining a Project About Trademark Learn Book Cheat Sheet Videos External Links Tools Command Line GUIs Hosting Reference Install Community This book is available in English . Full translation available in azərbaycan dili , български език , Deutsch , Español , فارسی , Français , Ελληνικά , 日本語 , 한국어 , Nederlands , Русский , Slovenščina , Tagalog , Українська , 简体中文 , Partial translations available in Čeština , Македонски , Polski , Српски , Ўзбекча , 繁體中文 , Translations started for Беларуская , Indonesian , Italiano , Bahasa Melayu , Português (Brasil) , Português (Portugal) , Svenska , Türkçe . The source of this book is hosted on GitHub. Patches, suggestions and comments are welcome. Chapters ▾ 1. Pagsisimula 1.1 Tungkol sa Bersyon Kontrol 1.2 Isang Maikling Kasaysayan ng Git 1.3 Pangunahing Kaalaman sa Git 1.4 Ang Command Line 1.5 Pag-install ng Git 1.6 Unang Beses na Pag-Setup ng Git 1.7 Pagkuha ng Tulong 1.8 Buod 2. Mga Pangunahing Kaalaman sa Git 2.1 Pagkuha ng Repositoryo ng Git 2.2 Pagtatala ng mga Pagbabago sa Repositoryo 2.3 Pagtitingin sa Kasaysayan ng Commit 2.4 Pag-Undo ng mga Bagay 2.5 Paggawa gamit ang mga Remote 2.6 Pag-tag 2.7 Mga Alyas sa Git 2.8 Buod 3. Pag-branch ng Git 3.1 Mga Branch sa Maikling Salita 3.2 Batayan ng Pag-branch at Pag-merge 3.3 Pamamahala ng Branch 3.4 Mga Daloy ng Trabaho sa Pag-branch 3.5 Remote na mga Branch 3.6 Pag-rebase 3.7 Buod 4. Git sa Server 4.1 Ang Mga Protokol 4.2 Pagkuha ng Git sa isang Server 4.3 Ang paglikha ng iyong Pampublikong Susi ng SSH 4.4 Pag-Setup ng Server 4.5 Git Daemon 4.6 Smart HTTP 4.7 GitWeb 4.8 GitLab 4.9 Mga Opsyon ng Naka-host sa Third Party 4.10 Buod 5. Distributed Git 5.1 Distributed Workflows 5.2 Contributing to a Project 5.3 Maintaining a Project 5.4 Summary 6. GitHub 6.1 Pag-setup at pagsasaayos ng Account 6.2 Pag-aambag sa isang Proyekto 6.3 Pagpapanatili ng isang Proyekto 6.4 Pamamahala ng isang organisasyon 6.5 Pag-iiskrip sa GitHub 6.6 Buod 7. Mga Git na Kasangkapan 7.1 Pagpipili ng Rebisyon 7.2 Staging na Interactive 7.3 Pag-stash at Paglilinis 7.4 Pag-sign sa Iyong Trabaho 7.5 Paghahanap 7.6 Pagsulat muli ng Kasaysayan 7.7 Ang Reset Demystified 7.8 Advanced na Pag-merge 7.9 Ang Rerere 7.10 Pagdebug gamit ang Git 7.11 Mga Submodule 7.12 Pagbibigkis 7.13 Pagpapalit 7.14 Kredensyal na ImbakanCredential Storage 7.15 Buod 8. Pag-aangkop sa Sariling Pangangailagan ng Git 8.1 Kompigurasyon ng Git 8.2 Mga Katangian ng Git 8.3 Mga Hook ng Git 8.4 An Example Git-Enforced Policy 8.5 Buod 9. Ang Git at iba pang mga Sistema 9.1 Git bilang isang Kliyente 9.2 Paglilipat sa Git 9.3 Buod 10. Mga Panloob ng GIT 10.1 Plumbing and Porcelain 10.2 Git Objects 10.3 Git References 10.4 Packfiles 10.5 Ang Refspec 10.6 Transfer Protocols 10.7 Pagpapanatili At Pagbalik ng Datos 10.8 Mga Variable sa Kapaligiran 10.9 Buod A1. Appendix A: Git in Other Environments A1.1 Grapikal Interfaces A1.2 Git in Visual Studio A1.3 Git sa Eclipse A1.4 Git in Bash A1.5 Git in Zsh A1.6 Git sa Powershell A1.7 Summary A2. Appendix B: Pag-embed ng Git sa iyong Mga Aplikasyon A2.1 Command-line Git A2.2 Libgit2 A2.3 JGit A3. Appendix C: Mga Kautusan ng Git A3.1 Setup at Config A3.2 Pagkuha at Paglikha ng Mga Proyekto A3.3 Pangunahing Snapshotting A3.4 Branching at Merging A3.5 Pagbabahagi at Pagbabago ng mga Proyekto A3.6 Pagsisiyasat at Paghahambing A3.7 Debugging A3.8 Patching A3.9 Email A3.10 External Systems A3.11 Administration A3.12 Pagtutuberong mga Utos 2nd Edition 5.3 Distributed Git - Maintaining a Project Maintaining a Project In addition to knowing how to effectively contribute to a project, you’ll likely need to know how to maintain one. This can consist of accepting and applying patches generated via format-patch and emailed to you, or integrating changes in remote branches for repositories you’ve added as remotes to your project. Whether you maintain a canonical repository or want to help by verifying or approving patches, you need to know how to accept work in a way that is clearest for other contributors and sustainable by you over the long run. Working in Topic Branches When you’re thinking of integrating new work, it’s generally a good idea to try it out in a topic branch – a temporary branch specifically made to try out that new work. This way, it’s easy to tweak a patch individually and leave it if it’s not working until you have time to come back to it. If you create a simple branch name based on the theme of the work you’re going to try, such as ruby_client or something similarly descriptive, you can easily remember it if you have to abandon it for a while and come back later. The maintainer of the Git project tends to namespace these branches as well – such as sc/ruby_client , where sc is short for the person who contributed the work. As you’ll remember, you can create the branch based off your master branch like this: $ git branch sc/ruby_client master Or, if you want to also switch to it immediately, you can use the checkout -b option: $ git checkout -b sc/ruby_client master Now you’re ready to add the contributed work that you received into this topic branch and determine if you want to merge it into your longer-term branches. Applying Patches from Email If you receive a patch over email that you need to integrate into your project, you need to apply the patch in your topic branch to evaluate it. There are two ways to apply an emailed patch: with git apply or with git am . Applying a Patch with apply If you received the patch from someone who generated it with git diff or some variation of the Unix diff command (which is not recommended; see the next section), you can apply it with the git apply command. Assuming you saved the patch at /tmp/patch-ruby-client.patch , you can apply the patch like this: $ git apply /tmp/patch-ruby-client.patch This modifies the files in your working directory. It’s almost identical to running a patch -p1 command to apply the patch, although it’s more paranoid and accepts fewer fuzzy matches than patch. It also handles file adds, deletes, and renames if they’re described in the git diff format, which patch won’t do. Finally, git apply is an “apply all or abort all” model where either everything is applied or nothing is, whereas patch can partially apply patchfiles, leaving your working directory in a weird state. git apply is overall much more conservative than patch . It won’t create a commit for you – after running it, you must stage and commit the changes introduced manually. You can also use git apply to see if a patch applies cleanly before you try actually applying it – you can run git apply --check with the patch: $ git apply --check 0001-seeing-if-this-helps-the-gem.patch error: patch failed: ticgit.gemspec:1 error: ticgit.gemspec: patch does not apply If there is no output, then the patch should apply cleanly. This command also exits with a non-zero status if the check fails, so you can use it in scripts if you want. Applying a Patch with am If the contributor is a Git user and was good enough to use the format-patch command to generate their patch, then your job is easier because the patch contains author information and a commit message for you. If you can, encourage your contributors to use format-patch instead of diff to generate patches for you. You should only have to use git apply for legacy patches and things like that. To apply a patch generated by format-patch , you use git am (the command is named am as it is used to "apply a series of patches from a mailbox"). Technically, git am is built to read an mbox file, which is a simple, plain-text format for storing one or more email messages in one text file. It looks something like this: From 330090432754092d704da8e76ca5c05c198e71a8 Mon Sep 17 00:00:00 2001 From: Jessica Smith <jessica@example.com> Date: Sun, 6 Apr 2008 10:17:23 -0700 Subject: [PATCH 1/2] add limit to log function Limit log functionality to the first 20 This is the beginning of the output of the git format-patch command that you saw in the previous section; it also represents a valid mbox email format. If someone has emailed you the patch properly using git send-email , and you download that into an mbox format, then you can point git am to that mbox file, and it will start applying all the patches it sees. If you run a mail client that can save several emails out in mbox format, you can save entire patch series into a file and then use git am to apply them one at a time. However, if someone uploaded a patch file generated via git format-patch to a ticketing system or something similar, you can save the file locally and then pass that file saved on your disk to git am to apply it: $ git am 0001-limit-log-function.patch Applying: add limit to log function You can see that it applied cleanly and automatically created the new commit for you. The author information is taken from the email’s From and Date headers, and the message of the commit is taken from the Subject and body (before the patch) of the email. For example, if this patch was applied from the mbox example above, the commit generated would look something like this: $ git log --pretty=fuller -1 commit 6c5e70b984a60b3cecd395edd5b48a7575bf58e0 Author: Jessica Smith <jessica@example.com> AuthorDate: Sun Apr 6 10:17:23 2008 -0700 Commit: Scott Chacon <schacon@gmail.com> CommitDate: Thu Apr 9 09:19:06 2009 -0700 add limit to log function Limit log functionality to the first 20 The Commit information indicates the person who applied the patch and the time it was applied. The Author information is the individual who originally created the patch and when it was originally created. But it’s possible that the patch won’t apply cleanly. Perhaps your main branch has diverged too far from the branch the patch was built from, or the patch depends on another patch you haven’t applied yet. In that case, the git am process will fail and ask you what you want to do: $ git am 0001-seeing-if-this-helps-the-gem.patch Applying: seeing if this helps the gem error: patch failed: ticgit.gemspec:1 error: ticgit.gemspec: patch does not apply Patch failed at 0001. When you have resolved this problem run "git am --resolved". If you would prefer to skip this patch, instead run "git am --skip". To restore the original branch and stop patching run "git am --abort". This command puts conflict markers in any files it has issues with, much like a conflicted merge or rebase operation. You solve this issue much the same way – edit the file to resolve the conflict, stage the new file, and then run git am --resolved to continue to the next patch: $ (fix the file) $ git add ticgit.gemspec $ git am --resolved Applying: seeing if this helps the gem If you want Git to try a bit more intelligently to resolve the conflict, you can pass a -3 option to it, which makes Git attempt a three-way merge. This option isn’t on by default because it doesn’t work if the commit the patch says it was based on isn’t in your repository. If you do have that commit – if the patch was based on a public commit – then the -3 option is generally much smarter about applying a conflicting patch: $ git am -3 0001-seeing-if-this-helps-the-gem.patch Applying: seeing if this helps the gem error: patch failed: ticgit.gemspec:1 error: ticgit.gemspec: patch does not apply Using index info to reconstruct a base tree... Falling back to patching base and 3-way merge... No changes -- Patch already applied. In this case, without the -3 option the patch would have been considered as a conflict. Since the -3 option was used the patch applied cleanly. If you’re applying a number of patches from an mbox, you can also run the am command in interactive mode, which stops at each patch it finds and asks if you want to apply it: $ git am -3 -i mbox Commit Body is: -------------------------- seeing if this helps the gem -------------------------- Apply? [y]es/[n]o/[e]dit/[v]iew patch/[a]ccept all This is nice if you have a number of patches saved, because you can view the patch first if you don’t remember what it is, or not apply the patch if you’ve already done so. When all the patches for your topic are applied and committed into your branch, you can choose whether and how to integrate them into a longer-running branch. Checking Out Remote Branches If your contribution came from a Git user who set up their own repository, pushed a number of changes into it, and then sent you the URL to the repository and the name of the remote branch the changes are in, you can add them as a remote and do merges locally. For instance, if Jessica sends you an email saying that she has a great new feature in the ruby-client branch of her repository, you can test it by adding the remote and checking out that branch locally: $ git remote add jessica git://github.com/jessica/myproject.git $ git fetch jessica $ git checkout -b rubyclient jessica/ruby-client If she emails you again later with another branch containing another great feature, you could directly fetch and checkout because you already have the remote setup. This is most useful if you’re working with a person consistently. If someone only has a single patch to contribute once in a while, then accepting it over email may be less time consuming than requiring everyone to run their own server and having to continually add and remove remotes to get a few patches. You’re also unlikely to want to have hundreds of remotes, each for someone who contributes only a patch or two. However, scripts and hosted services may make this easier – it depends largely on how you develop and how your contributors develop. The other advantage of this approach is that you get the history of the commits as well. Although you may have legitimate merge issues, you know where in your history their work is based; a proper three-way merge is the default rather than having to supply a -3 and hope the patch was generated off a public commit to which you have access. If you aren’t working with a person consistently but still want to pull from them in this way, you can provide the URL of the remote repository to the git pull command. This does a one-time pull and doesn’t save the URL as a remote reference: $ git pull https://github.com/onetimeguy/project From https://github.com/onetimeguy/project * branch HEAD -> FETCH_HEAD Merge made by the 'recursive' strategy. Determining What Is Introduced Now you have a topic branch that contains contributed work. At this point, you can determine what you’d like to do with it. This section revisits a couple of commands so you can see how you can use them to review exactly what you’ll be introducing if you merge this into your main branch. It’s often helpful to get a review of all the commits that are in this branch but that aren’t in your master branch. You can exclude commits in the master branch by adding the --not option before the branch name. This does the same thing as the master..contrib format that we used earlier. For example, if your contributor sends you two patches and you create a branch called contrib and applied those patches there, you can run this: $ git log contrib --not master commit 5b6235bd297351589efc4d73316f0a68d484f118 Author: Scott Chacon <schacon@gmail.com> Date: Fri Oct 24 09:53:59 2008 -0700 seeing if this helps the gem commit 7482e0d16d04bea79d0dba8988cc78df655f16a0 Author: Scott Chacon <schacon@gmail.com> Date: Mon Oct 22 19:38:36 2008 -0700 updated the gemspec to hopefully work better To see what changes each commit introduces, remember that you can pass the -p option to git log and it will append the diff introduced to each commit. To see a full diff of what would happen if you were to merge this topic branch with another branch, you may have to use a weird trick to get the correct results. You may think to run this: $ git diff master This command gives you a diff, but it may be misleading. If your master branch has moved forward since you created the topic branch from it, then you’ll get seemingly strange results. This happens because Git directly compares the snapshots of the last commit of the topic branch you’re on and the snapshot of the last commit on the master branch. For example, if you’ve added a line in a file on the master branch, a direct comparison of the snapshots will look like the topic branch is going to remove that line. If master is a direct ancestor of your topic branch, this isn’t a problem; but if the two histories have diverged, the diff will look like you’re adding all the new stuff in your topic branch and removing everything unique to the master branch. What you really want to see are the changes added to the topic branch — the work you’ll introduce if you merge this branch with master. You do that by having Git compare the last commit on your topic branch with the first common ancestor it has with the master branch. Technically, you can do that by explicitly figuring out the common ancestor and then running your diff on it: $ git merge-base contrib master 36c7dba2c95e6bbb78dfa822519ecfec6e1ca649 $ git diff 36c7db or, more concisely: $ git diff $(git merge-base contrib master) However, neither of those is particularly convenient, so Git provides another shorthand for doing the same thing: the triple-dot syntax. In the context of the git diff command, you can put three periods after another branch to do a diff between the last commit of the branch you’re on and its common ancestor with another branch: $ git diff master...contrib This command shows you only the work your current topic branch has introduced since its common ancestor with master. That is a very useful syntax to remember. Integrating Contributed Work When all the work in your topic branch is ready to be integrated into a more mainline branch, the question is how to do it. Furthermore, what overall workflow do you want to use to maintain your project? You have a number of choices, so we’ll cover a few of them. Merging Workflows One basic workflow is to simply merge all that work directly into your master branch. In this scenario, you have a master branch that contains basically stable code. When you have work in a topic branch that you think you’ve completed, or work that someone else has contributed and you’ve verified, you merge it into your master branch, delete that just-merged topic branch, and repeat. For instance, if we have a repository with work in two branches named ruby_client and php_client that looks like History with several topic branches. , and we merge ruby_client followed by php_client , your history will end up looking like After a topic branch merge. . Figure 73. History with several topic branches. Figure 74. After a topic branch merge. That is probably the simplest workflow, but it can possibly be problematic if you’re dealing with larger or more stable projects where you want to be really careful about what you introduce. If you have a more important project, you might want to use a two-phase merge cycle. In this scenario, you have two long-running branches, master and develop , in which you determine that master is updated only when a very stable release is cut and all new code is integrated into the develop branch. You regularly push both of these branches to the public repository. Each time you have a new topic branch to merge in ( Before a topic branch merge. ), you merge it into develop ( After a topic branch merge. ); then, when you tag a release, you fast-forward master to wherever the now-stable develop branch is ( After a project release. ). Figure 75. Before a topic branch merge. Figure 76. After a topic branch merge. Figure 77. After a project release. This way, when people clone your project’s repository, they can either check out master to build the latest stable version and keep up to date on that easily, or they can check out develop , which is the more cutting-edge content. You can also extend this concept by having an integrate branch where all the work is merged together. Then, when the codebase on that branch is stable and passes tests, you merge it into a develop branch; and when that has proven itself stable for a while, you fast-forward your master branch. Large-Merging Workflows The Git project has four long-running branches: master , next , and pu (proposed updates) for new work, and maint for maintenance backports. When new work is introduced by contributors, it’s collected into topic branches in the maintainer’s repository in a manner similar to what we’ve described (see Managing a complex series of parallel contributed topic branches. ). At this point, the topics are evaluated to determine whether they’re safe and ready for consumption or whether they need more work. If they’re safe, they’re merged into next , and that branch is pushed up so everyone can try the topics integrated together. Figure 78. Managing a complex series of parallel contributed topic branches. If the topics still need work, they’re merged into pu instead. When it’s determined that they’re totally stable, the topics are re-merged into master . The next and pu branches are then rebuilt from the master . This means master almost always moves forward, next is rebased occasionally, and pu is rebased even more often: Figure 79. Merging contributed topic branches into long-term integration branches. When a topic branch has finally been merged into master , it’s removed from the repository. The Git project also has a maint branch that is forked off from the last release to provide backported patches in case a maintenance release is required. Thus, when you clone the Git repository, you have four branches that you can check out to evaluate the project in different stages of development, depending on how cutting edge you want to be or how you want to contribute; and the maintainer has a structured workflow to help them vet new contributions. The Git project’s workflow is specialized. To clearly understand this you could check out the Git Maintainer’s guide . Rebasing and Cherry-Picking Workflows Other maintainers prefer to rebase or cherry-pick contributed work on top of their master branch, rather than merging it in, to keep a mostly linear history. When you have work in a topic branch and have determined that you want to integrate it, you move to that branch and run the rebase command to rebuild the changes on top of your current master (or develop , and so on) branch. If that works well, you can fast-forward your master branch, and you’ll end up with a linear project history. The other way to move introduced work from one branch to another is to cherry-pick it. A cherry-pick in Git is like a rebase for a single commit. It takes the patch that was introduced in a commit and tries to reapply it on the branch you’re currently on. This is useful if you have a number of commits on a topic branch and you want to integrate only one of them, or if you only have one commit on a topic branch and you’d prefer to cherry-pick it rather than run rebase. For example, suppose you have a project that looks like this: Figure 80. Example history before a cherry-pick. If you want to pull commit e43a6 into your master branch, you can run $ git cherry-pick e43a6 Finished one cherry-pick. [master]: created a0a41a9: "More friendly message when locking the index fails." 3 files changed, 17 insertions(+), 3 deletions(-) This pulls the same change introduced in e43a6 , but you get a new commit SHA-1 value, because the date applied is different. Now your history looks like this: Figure 81. History after cherry-picking a commit on a topic branch. Now you can remove your topic branch and drop the commits you didn’t want to pull in. Rerere If you’re doing lots of merging and rebasing, or you’re maintaining a long-lived topic branch, Git has a feature called “rerere” that can help. Rerere stands for “reuse recorded resolution” – it’s a way of shortcutting manual conflict resolution. When rerere is enabled, Git will keep a set of pre- and post-images from successful merges, and if it notices that there’s a conflict that looks exactly like one you’ve already fixed, it’ll just use the fix from last time, without bothering you with it. This feature comes in two parts: a configuration setting and a command. The configuration setting is rerere.enabled , and it’s handy enough to put in your global config: $ git config --global rerere.enabled true Now, whenever you do a merge that resolves conflicts, the resolution will be recorded in the cache in case you need it in the future. If you need to, you can interact with the rerere cache using the git rerere command. When it’s invoked alone, Git checks its database of resolutions and tries to find a match with any current merge conflicts and resolve them (although this is done automatically if rerere.enabled is set to true ). There are also subcommands to see what will be recorded, to erase specific resolution from the cache, and to clear the entire cache. We will cover rerere in more detail in Rerere . Tagging Your Releases When you’ve decided to cut a release, you’ll probably want to assign a tag so you can re-create that release at any point going forward. You can create a new tag as discussed in Mga Pangunahing Kaalaman sa Git . If you decide to sign the tag as the maintainer, the tagging may look something like this: $ git tag -s v1.5 -m 'my signed 1.5 tag' You need a passphrase to unlock the secret key for user: "Scott Chacon <schacon@gmail.com>" 1024-bit DSA key, ID F721C45A, created 2009-02-09 If you do sign your tags, you may have the problem of distributing the public PGP key used to sign your tags. The maintainer of the Git project has solved this issue by including their public key as a blob in the repository and then adding a tag that points directly to that content. To do this, you can figure out which key you want by running gpg --list-keys : $ gpg --list-keys /Users/schacon/.gnupg/pubring.gpg --------------------------------- pub 1024D/F721C45A 2009-02-09 [expires: 2010-02-09] uid Scott Chacon <schacon@gmail.com> sub 2048g/45D02282 2009-02-09 [expires: 2010-02-09] Then, you can directly import the key into the Git database by exporting it and piping that through git hash-object , which writes a new blob with those contents into Git and gives you back the SHA-1 of the blob: $ gpg -a --export F721C45A | git hash-object -w --stdin 659ef797d181633c87ec71ac3f9ba29fe5775b92 Now that you have the contents of your key in Git, you can create a tag that points directly to it by specifying the new SHA-1 value that the hash-object command gave you: $ git tag -a maintainer-pgp-pub 659ef797d181633c87ec71ac3f9ba29fe5775b92 If you run git push --tags , the maintainer-pgp-pub tag will be shared with everyone. If anyone wants to verify a tag, they can directly import your PGP key by pulling the blob directly out of the database and importing it into GPG: $ git show maintainer-pgp-pub | gpg --import They can use that key to verify all your signed tags. Also, if you include instructions in the tag message, running git show <tag> will let you give the end user more specific instructions about tag verification. Generating a Build Number Because Git doesn’t have monotonically increasing numbers like v123 or the equivalent to go with each commit, if you want to have a human-readable name to go with a commit, you can run git describe on that commit. Git gives you the name of the nearest tag with the number of commits on top of that tag and a partial SHA-1 value of the commit you’re describing: $ git describe master v1.6.2-rc1-20-g8c5b85c This way, you can export a snapshot or build and name it something understandable to people. In fact, if you build Git from source code cloned from the Git repository, git --version gives you something that looks like this. If you’re describing a commit that you have directly tagged, it gives you the tag name. The git describe command favors annotated tags (tags created with the -a or -s flag), so release tags should be created this way if you’re using git describe , to ensure the commit is named properly when described. You can also use this string as the target of a checkout or show command, although it relies on the abbreviated SHA-1 value at the end, so it may not be valid forever. For instance, the Linux kernel recently jumped from 8 to 10 characters to ensure SHA-1 object uniqueness, so older git describe output names were invalidated. Preparing a Release Now you want to release a build. One of the things you’ll want to do is create an archive of the latest snapshot of your code for those poor souls who don’t use Git. The command to do this is git archive : $ git archive master --prefix='project/' | gzip > `git describe master`.tar.gz $ ls *.tar.gz v1.6.2-rc1-20-g8c5b85c.tar.gz If someone opens that tarball, they get the latest snapshot of your project under a project directory. You can also create a zip archive in much the same way, but by passing the --format=zip option to git archive : $ git archive master --prefix='project/' --format=zip > `git describe master`.zip You now have a nice tarball and a zip archive of your project release that you can upload to your website or email to people. The Shortlog It’s time to email your mailing list of people who want to know what’s happening in your project. A nice way of quickly getting a sort of changelog of what has been added to your project since your last release or email is to use the git shortlog command. It summarizes all the commits in the range you give it; for example, the following gives you a summary of all the commits since your last release, if your last release was named v1.0.1: $ git shortlog --no-merges master --not v1.0.1 Chris Wanstrath (8): Add support for annotated tags to Grit::Tag Add packed-refs annotated tag support. Add Grit::Commit#to_patch Update version and History.txt Remove stray `puts` Make ls_tree ignore nils Tom Preston-Werner (4): fix dates in history dynamic version method Version bump to 1.0.2 Regenerated gemspec for version 1.0.2 You get a clean summary of all the commits since v1.0.1, grouped by author, that you can email to your list. prev | next About this site Patches, suggestions, and comments are welcome. Git is a member of Software Freedom Conservancy | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/it_it/AmazonCloudWatch/latest/monitoring/CloudWatch-ServiceLevelObjectives.html#CloudWatch-ServiceLevelObjectives-Triage | Obiettivi del livello di servizio (SLO) - Amazon CloudWatch Obiettivi del livello di servizio (SLO) - Amazon CloudWatch Documentazione Amazon CloudWatch Guida per l’utente Concetti di SLO Calcolo del budget di errore e del livello di raggiungimento per gli SLO basati su periodi Calcolo del budget di errore e del raggiungimento per gli SLO basati su richieste Calcola l'indice di consumo e, facoltativamente, imposta gli allarmi relativi all'indice di consumo Creazione di uno SLO. Visualizza e valuta lo stato SLO Modifica di uno SLO esistente Eliminazione di uno SLO Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà. Obiettivi del livello di servizio (SLO) È possibile utilizzare Application Signals per creare obiettivi del livello di servizio per i servizi destinati alle operazioni o alle dipendenze aziendali critiche. Creando SLO su questi servizi, avrai la possibilità di tracciarli nel pannello di controllo SLO e di avere una visione d'insieme delle tue operazioni più importanti. Oltre a creare una panoramica che gli operatori possono utilizzare per visualizzare lo stato attuale delle operazioni critiche, puoi utilizzare gli SLO per monitorare le prestazioni a lungo termine dei tuoi servizi, per assicurarti che soddisfino le tue aspettative. Se hai stipulato contratti sul livello di servizio con i clienti, gli SLO sono un ottimo strumento per accertarti che vengano rispettati. La valutazione dello stato dei servizi con gli SLO inizia con la definizione di obiettivi chiari e misurabili basati su parametri delle prestazioni chiave: gli indicatori del livello di servizio (SLI) . Uno SLO tiene traccia delle prestazioni SLI rispetto alla soglia e all'obiettivo prefissati e riporta in che misura le prestazioni delle applicazioni si avvicinano alla soglia. Application Signals ti aiuta a impostare gli SLO sui parametri delle prestazioni chiave. Application Signals raccoglie automaticamente parametri di Latency e Availability per ogni servizio e operazione che individua e questi parametri sono spesso ideali da utilizzare come SLI. Con la procedura guidata di creazione degli SLO, puoi utilizzare questi parametri per i tuoi SLO. Puoi quindi monitorare lo stato di tutti i tuoi SLO tramite i pannelli di controllo di Application Signals. Puoi impostare gli SLO su operazioni o dipendenze specifiche che il tuo servizio chiama o utilizza. Puoi utilizzare come SLI qualsiasi parametro o espressione di parametro di CloudWatch, oltre ai parametri di Latency e Availability . La creazione di SLO è molto importante per ottenere il massimo vantaggio da CloudWatch Application Signals. Dopo aver creato gli SLO, puoi visualizzarne lo stato nella console Application Signals per vedere rapidamente quali di questi servizi e operazioni critici stanno funzionando bene e quali no. La possibilità di monitorare gli SLO offre i seguenti principali vantaggi: Gli operatori di servizi vedere più facilmente l'integrità operativa attuale dei servizi critici confrontandoli con lo SLI. In questo modo possono controllare e identificare rapidamente servizi e operazioni non funzionanti. È possibile monitorare le prestazioni dei servizi rispetto a obiettivi aziendali misurabili per periodi di tempo più lunghi. Scegliendo su cosa impostare gli SLO, dai la priorità a ciò che è importante per te. I pannelli di controllo di Application Signals mostrano automaticamente informazioni su ciò a cui hai dato priorità. Quando crei uno SLO, puoi anche scegliere di creare contemporaneamente allarmi CloudWatch per monitorarlo. Puoi impostare allarmi per monitorare le violazioni della soglia e anche i livelli di avviso. Questi allarmi possono avvisarti automaticamente se i parametri SLO superano la soglia che hai impostato o se si avvicinano a una soglia di avviso. Ad esempio, uno SLO che si avvicina alla soglia di avviso può avvisarti che il tuo team dovrebbe rallentare la frequenza di abbandono dell'applicazione per assicurarsi che gli obiettivi di prestazione a lungo termine vengano raggiunti. Argomenti Concetti di SLO Calcolo del budget di errore e del livello di raggiungimento per gli SLO basati su periodi Calcolo del budget di errore e del raggiungimento per gli SLO basati su richieste Calcola l'indice di consumo e, facoltativamente, imposta gli allarmi relativi all'indice di consumo Creazione di uno SLO. Visualizza e valuta lo stato SLO Modifica di uno SLO esistente Eliminazione di uno SLO Concetti di SLO Uno SLO include i componenti seguenti: Un indicatore del livello di servizio (SLI) , che è un parametro chiave delle prestazioni specificato dall'utente. Rappresenta il livello di prestazione desiderato per l'applicazione. Application Signals raccoglie automaticamente parametri chiave di Latency e Availability per i servizi e le operazioni che individua e questi parametri sono spesso ideali da utilizzare come SLI. Sei tu a scegliere la soglia da utilizzare per il tuo SLI. Ad esempio, 200 ms per la latenza. Un obiettivo o un obiettivo di raggiungimento , ossia la percentuale di tempo o richieste in cui si prevede che lo SLI raggiunga la soglia in ogni intervallo di tempo. Gli intervalli di tempo possono essere brevi, come ore, o lunghi, come un anno. Gli intervalli possono essere intervalli di calendario o intervalli ricorrenti. Gli intervalli di calendario sono allineati al calendario, ad esempio uno SLO registrato mensilmente. CloudWatch regola automaticamente i dati di integrità, budget e raggiungimento in base al numero di giorni in un mese. Gli intervalli di calendario sono più adatti agli obiettivi aziendali che sono misurati in base al calendario. Gli intervalli ricorrenti sono calcolati su base sequenziale. Gli intervalli ricorrenti sono più adatti per monitorare l'esperienza utente recente della tua applicazione. Il periodo è un periodo di tempo più breve e più periodi costituiscono un intervallo. Le prestazioni dell'applicazione vengono confrontate allo SLI durante ogni periodo compreso nell'intervallo. Per ogni periodo, si stabilisce che l'applicazione ha raggiunto o non ha raggiunto le prestazioni previste. Ad esempio, un obiettivo del 99% con un intervallo di calendario di un giorno e un periodo di 1 minuto significa che l'applicazione deve soddisfare o raggiungere la soglia di successo nel 99% dei periodi di 1 minuto durante il giorno. In caso affermativo, lo SLO è stato raggiunto per quel giorno. Il giorno successivo è previsto un nuovo intervallo di valutazione e l'applicazione deve soddisfare o raggiungere la soglia di successo nel 99% dei periodi di 1 minuto durante il secondo giorno per soddisfare lo SLO per il secondo giorno. Uno SLI può essere basato su uno dei nuovi parametri dell'applicazione standard raccolte da Application Signals. In alternativa, può essere qualsiasi parametro o espressione di parametro di CloudWatch. I parametri dell'applicazione standard che è possibile utilizzare per una SLI sono Latency e Availability . Availability rappresenta le risposte andate a buon fine divise per il totale delle richieste. Viene calcolata come (1 - frequenza di errore)*100 , dove le risposte di errore sono 5xx errori. Le risposte andate a buon fine sono risposte prive di errori 5XX . Le risposte 4XX vengono considerate come andate a buon fine. Calcolo del budget di errore e del livello di raggiungimento per gli SLO basati su periodi Quando si visualizzano le informazioni su uno SLO, vengono visualizzati lo stato di integrità corrente e il relativo budget di errore. Il budget di errore è la quantità di tempo all'interno dell'intervallo che può superare la soglia ma consentire comunque di rispettare lo SLO. Il budget di errore totale è la quantità totale di tempo di superamento della soglia che può essere tollerato durante l'intero intervallo. Il budget di errore residuo è la quantità di tempo residuo di superamento della soglia che può essere tollerato durante l'intervallo corrente. Questo si calcola sottraendo dal budget di errore totale la quantità di tempo in cui la soglia è già stata superata. L'immagine seguente illustra i concetti di budget di raggiungimento e di errore per un obiettivo con un intervallo di 30 giorni, periodi di 1 minuto e un obiettivo di raggiungimento del 99%. 30 giorni contengono 43.200 periodi da 1 minuto. Il 99% di 43.200 è 42.768, quindi per raggiungere lo SLO è necessario che 42.768 raggiungano l'obiettivo. Finora, nell'intervallo attuale, 130 periodi di 1 minuto non hanno raggiunto l'obiettivo. Determinazione del successo in ogni periodo All'interno di ogni periodo, i dati SLI vengono aggregati in un unico punto dati basato sulla statistica utilizzata per lo SLI. Questo punto dati rappresenta l'intera durata del periodo. Quel singolo punto dati viene confrontato con la soglia SLI per determinare se il periodo ha raggiunto l'obiettivo. La visualizzazione nel pannello di controllo dei periodi che non hanno raggiunto l'obiettivo durante l'intervallo di tempo corrente può avvisare gli operatori del servizio che è necessario controllarlo. Se si ritiene che il periodo non abbia raggiunto l'obiettivo, l'intera durata del periodo viene conteggiata come non riuscito ai fini del calcolo del budget di errore. Il monitoraggio del budget di errore consente di sapere se il servizio sta ottenendo le prestazioni desiderate per un periodo di tempo più lungo. Esclusioni delle finestre temporali Le esclusioni delle finestre temporali sono un blocco di tempo con una data di inizio e di fine definita. Questo periodo di tempo è escluso dalle metriche delle prestazioni dello SLO ed è possibile pianificare finestre di esclusione una tantum o ricorrenti. Prendiamo come esempio la manutenzione programmata. Nota Per gli SLO basati su periodi, i dati SLI nella finestra di esclusione sono considerati non in violazione. Per gli SLO basati su richiesta, sono escluse tutte le richieste valide e non valide nella finestra di esclusione. Quando un intervallo per uno SLO basato su richiesta viene completamente escluso, viene pubblicata una metrica predefinita del tasso di raggiungimento pari al 100%. È possibile specificare solo finestre temporali con una data di inizio futura. Calcolo del budget di errore e del raggiungimento per gli SLO basati su richieste Dopo aver creato uno SLO, puoi recuperare i report relativi al budget di errore. Un budget di errore rappresenta quante richieste possono non rispettare l'obiettivo dello SLO senza che l'applicazione smetta di soddisfarlo. Per uno SLO basato su richiesta, il budget di errore residuo è dinamico e può aumentare o diminuire, a seconda del rapporto tra richieste valide e richieste totali La tabella seguente illustra il calcolo per uno SLO basato su richiesta con un intervallo di 5 giorni e un obiettivo di raggiungimento dell'85%. In questo esempio, supponiamo che non ci sia stato traffico prima del Giorno 1. Lo SLO non ha raggiunto l'obiettivo il Giorno 10. Orario Total Requests (Richieste totali) Richieste non valide Totale cumulativo delle richieste totali negli ultimi 5 giorni Totale cumulativo delle richieste valide negli ultimi 5 giorni Raggiungimento basato su richieste Richieste totali del budget Richieste rimanenti del budget Giorno 1 10 1 10 9 9/10 = 90% 1.5 0,5 Giorno 2 5 1 15 13 13/15 = 86% 2.3 0.3 Giorno 3 1 1 16 13 13/16 = 81% 2.4 -0,6 Giorno 4 24 0 40 37 37/40 = 92% 6.0 3.0 Giorno 5 20 5 60 52 52/60 = 87% 9,0 1.0 Giorno 6 6 2 56 47 47/56 = 84% 8,4 -0,6 Giorno 7 10 3 61 50 50/61 = 82% 9,2 -1,8 Giorno 8 15 6 75 59 59/75 = 79% 11,3 -4,7 Giorno 9 12 1 63 46 46/63 = 73% 9.5 -7,5 Giorno 10 5 57 40 40/57 = 70% 8,5 -8,5 Raggiungimento finale degli ultimi 5 giorni 70% Calcola l'indice di consumo e, facoltativamente, imposta gli allarmi relativi all'indice di consumo È possibile utilizzare Application Signals per calcolare gli indici di consumo per gli obiettivi del livello di servizio. L'indice di consumo è una metrica che indica la velocità con cui il servizio consuma il budget di errore in rapporto all'obiettivo di raggiungimento dello SLO. È espressa come fattore multiplo del tasso di errore di base. L'indice di consumo viene calcolato in base al tasso di errore di base , che dipende dall'obiettivo di raggiungimento. L'obiettivo di raggiungimento consiste nella percentuale di periodi di tempo soddisfacenti o di richieste riuscite che deve essere ottenuta per raggiungere l'obiettivo SLO. Il tasso di errore di base è (100% - percentuale dell'obiettivo di raggiungimento), e questo numero esaurirebbe esattamente il budget di errore completo alla fine dell'intervallo di tempo dello SLO. Quindi uno SLO con un obiettivo di raggiungimento del 99% avrebbe un tasso di errore di base dell'1%. Il monitoraggio dell'indice di consumo illustra quanto siamo lontani dal tasso di errore di base. Ancora una volta, prendendo l'esempio di un obiettivo di raggiungimento del 99%, è vero quanto segue: Indice di consumo = 1 : se l'indice di consumo rimane sempre esattamente pari al tasso di errore di base, raggiungiamo perfettamente l'obiettivo SLO. Indice di consumo < 1 : se l'indice di consumo è inferiore al tasso di errore di base, siamo sulla buona strada per superare l'obiettivo SLO. Indice di consumo > 1 : se l'indice di consumo è superiore al tasso di errore di base, probabilmente non riusciremo a raggiungere l'obiettivo SLO. Quando crei indici di consumo per i tuoi SLO, puoi anche scegliere di creare contemporaneamente degli allarmi CloudWatch per monitorare tali indici. Puoi impostare una soglia per gli indici di consumo e gli allarmi possono avvisarti automaticamente se le metriche relative a tali indici superano la soglia che hai impostato. Ad esempio, un indice di consumo vicino alla soglia può indicare che lo SLO sta consumando il budget di errore più rapidamente di quanto il tuo team possa tollerare e che potrebbe essere necessario rallentare il ritmo dei cambiamenti nell'applicazione per garantire il raggiungimento degli obiettivi prestazionali a lungo termine. La creazione di allarmi comporta addebiti. Per ulteriori informazioni sui prezzi di CloudWatch, consulta Prezzi di Amazon CloudWatch . Calcolo dell'indice di consumo Per calcolare l'indice di consumo è necessario specificare una finestra di visualizzazione retrospettiva . La finestra di visualizzazione retrospettiva è il periodo di tempo durante il quale misurare il tasso di errore. burn rate = error rate over the look-back window / (100% - attainment goal) Nota Se non sono disponibili dati relativi al periodo dell'indice di consumo, Application Signals calcola tale indice in base al raggiungimento. Il tasso di errore viene calcolato come rapporto tra il numero di eventi non validi e il numero totale di eventi durante la finestra dell'indice di consumo: Per gli SLO basati su periodi, il tasso di errore viene calcolato dividendo i periodi negativi per i periodi totali. Il totale dei periodi rappresenta la totalità dei periodi presenti nella finestra di visualizzazione retrospettiva. Per gli SLO basati su richieste, si tratta di una misura delle richieste non valide divisa per le richieste totali. Il numero totale di richieste è il numero di richieste durante la finestra di visualizzazione retrospettiva. La finestra di visualizzazione retrospettiva deve essere un multiplo del periodo SLO e deve essere inferiore all'intervallo SLO. Determina la soglia appropriata per un allarme relativo all'indice di consumo Quando si configura un allarme relativo all'indice di consumo, è necessario scegliere un valore per l'indice di consumo come soglia di allarme. Il valore di questa soglia dipende dalla lunghezza dell'intervallo SLO e dalla finestra di visualizzazione retrospettiva, e dipende dal metodo o dal modello mentale che il team desidera adottare. Sono disponibili due metodi principali per determinare la soglia. Metodo 1: determina la percentuale del budget totale stimato per gli errori che il team è disposto a consumare nella finestra di visualizzazione retrospettiva. Se vuoi ricevere un allarme quando l'X% del budget di errore stimato viene speso nelle ultime ore di visualizzazione retrospettiva dell'indice di consumo, la soglia dell'indice di consumo è la seguente: burn rate threshold = X% * SLO interval length / look-back window size Ad esempio, il 5% di un budget di errore di 30 giorni (720 ore) impiegato per più di un'ora richiede un indice di consumo pari a 5% * 720 / 1 = 36 . Pertanto, se la finestra di visualizzazione retrospettiva sull'indice di consumo è di 1 ora, impostiamo la soglia dell'indice di consumo su 36. Puoi utilizzare la console CloudWatch per creare allarmi sull'indice di consumo utilizzando questo metodo. È possibile specificare il numero X e la soglia viene determinata utilizzando la formula precedente. La lunghezza dell'intervallo SLO viene determinata in base al tipo di intervallo SLO: Per gli SLO con un intervallo basato sulla rotazione, è la durata dell'intervallo in ore. Per gli SLO con un intervallo basato sul calendario: Se l'unità è costituita da giorni o settimane, è la lunghezza dell'intervallo in ore. Se l'unità è un mese, prendiamo 30 giorni come lunghezza stimata e la convertiamo in ore. Metodo 2: determina il tempo che manca all'esaurimento del budget per l'intervallo successivo Per far sì che l'allarme ti avvisi quando il tasso di errore corrente nella finestra di visualizzazione retrospettiva più recente indica che mancano meno di X ore all'esaurimento del budget (supponendo che il budget residuo sia attualmente del 100%), puoi utilizzare la seguente formula per determinare la soglia dell'indice di consumo. burn rate threshold = SLO interval length / X Sottolineiamo che il tempo che manca all'esaurimento del budget (X) nella formula precedente presuppone che il budget totale rimanente sia attualmente del 100% e pertanto non tiene conto dell'importo del budget che è già stato consumato in questo intervallo. Possiamo anche considerarlo come il tempo che manca all'esaurimento del budget per l'intervallo successivo. Procedure dettagliate per gli allarmi relativi all'indice di consumo Ad esempio, prendiamo uno SLO con un intervallo di rotazione di 28 giorni. L'impostazione di un allarme relativo all'indice di consumo per questo SLO prevede due passaggi: Impostazione dell'indice di consumo e della finestra di visualizzazione retrospettiva. Creazione di un allarme CloudWatch che monitora l'indice di consumo. Per iniziare, stabilisci la quota del budget totale per gli errori che il servizio è disposto a consumare entro un periodo di tempo specifico. In altre parole, stabilisci il tuo obiettivo usando questa frase: “Voglio essere avvisato quando l'X% del mio budget totale destinato agli errori viene consumato entro M minuti”. Ad esempio, potresti impostare l'obiettivo in modo da ricevere un avviso quando il 2% del budget totale per gli errori viene consumato entro 60 minuti. Per impostare l'indice di consumo, è necessario innanzitutto definire la finestra di visualizzazione retrospettiva. La finestra di visualizzazione retrospettiva è M, che in questo esempio è di 60 minuti. Successivamente, crea l'allarme CloudWatch. In questa fase, è necessario specificare una soglia per l'indice di consumo. Se l'indice di consumo supera tale soglia, l'allarme genererà un avviso. Per trovare la soglia, usa la formula seguente: burn rate threshold = X% * SLO interval length/ look-back window size In questo esempio, X è 2 perché vogliamo essere avvisati se il 2% del budget di errore viene consumato entro 60 minuti. La durata dell'intervallo è di 40.320 minuti (28 giorni) e 60 minuti è la finestra di visualizzazione retrospettiva, quindi la risposta è: burn rate threshold = 2% * 40,320 / 60 = 13.44. In questo esempio, dovresti impostare 13,44 come soglia di allarme. Allarmi multipli con finestre diverse Impostando gli allarmi su più finestre di visualizzazione retrospettiva, è possibile rilevare rapidamente picchi del tasso di errore con una finestra breve e al contempo rilevare aumenti minori del tasso di errore che, se ignorati, finirebbero col ridurre il budget di errore. Inoltre, è possibile impostare un allarme composito su un indice di consumo con finestra lunga e su un indice di consumo con finestra breve (1/12 della finestra lunga) ed essere informati solo quando entrambi gli indici di consumo superano una soglia. In questo modo, è possibile ricevere un avviso solo per le situazioni ancora in corso. Per ulteriori informazioni sugli allarmi compositi in CloudWatch, consulta Combinazione di allarmi . Nota Quando crei l'indice di consumo, puoi impostare un allarme di metrica su tale indice. Per impostare un allarme composito su più allarmi di indice di consumo, è necessario utilizzare le istruzioni in Create a composite alarm . Una strategia di allarme composito consigliata nella cartella di lavoro di Google Site Reliability Engineering include tre allarmi compositi: Un allarme composito che rileva un paio di allarmi, uno con una finestra di un'ora e uno con una finestra di cinque minuti. Un secondo allarme composito che rileva un paio di allarmi, uno con una finestra di sei ore e uno con una finestra di 30 minuti. Un terzo allarme composito che rileva un paio di allarmi, uno con una finestra di tre giorni e l'altro con una finestra di sei ore. I passaggi per effettuare questa configurazione sono i seguenti: Crea cinque indici di consumo, con finestre di cinque minuti, 30 minuti, un'ora, sei ore e tre giorni. Crea le seguenti tre coppie di allarmi CloudWatch. Ogni coppia include una finestra lunga e una finestra breve pari a 1/12 della finestra lunga, e le soglie vengono determinate utilizzando i passaggi in Determina la soglia appropriata per un allarme relativo all'indice di consumo . Quando calcoli la soglia per ogni allarme della coppia, utilizza la finestra di visualizzazione retrospettiva più lunga della coppia nel calcolo. Allarmi sugli indici di consumo a 1 ora e 5 minuti (la soglia è determinata dal 2% del budget totale) Allarmi sugli indici di consumo a 6 ore e 30 minuti (la soglia è determinata dal 5% del budget totale) Allarmi sugli indici di consumo a 3 giorni e 6 ore (la soglia è determinata dal 10% del budget totale) Per ognuna di queste coppie, crea un allarme composito per essere avvisato quando entrambi i singoli allarmi entrano nello stato ALARM. Per ulteriori informazioni sulla creazione di allarmi compositi, consulta Create a composite alarm . Ad esempio, se gli allarmi per la prima coppia (finestra di un'ora e finestra di cinque minuti) sono denominati OneHourBurnRate e FiveMinuteBurnRate , la regola di allarme composito di CloudWatch sarebbe ALARM(OneHourBurnRate) AND ALARM(FiveMinuteBurnRate) La strategia precedente è possibile solo per SLO con intervalli di almeno tre ore. Per gli SLO con intervalli più brevi, consigliamo di iniziare con un paio di allarmi di indice di consumo, in cui un allarme ha una finestra di visualizzazione retrospettiva pari a 1/12 di quella dell'altro allarme. Quindi, procedi impostando un allarme composito su questa coppia. Creazione di uno SLO. Ti consigliamo di impostare SLO sia di latenza che di disponibilità sulle tue applicazioni critiche. Questi parametri raccolti da Application Signals sono in linea con gli obiettivi aziendali comuni. Puoi anche impostare gli SLO su qualsiasi parametro CloudWatch o su qualsiasi espressione matematica dei parametri che dia come risultato una singola serie temporale. La prima volta che crei uno SLO nel tuo account, CloudWatch crea automaticamente il ruolo collegato al servizio AWSServiceRoleForCloudWatchApplicationSignals nel tuo account, se non esiste ancora. Questo ruolo collegato al servizio consente a CloudWatch di raccogliere i dati di CloudWatch Logs, i dati delle tracce X-Ray, i dati delle metriche di CloudWatch e i dati di tagging dalle applicazioni nel tuo account. Per ulteriori informazioni sui ruoli collegati al servizio di CloudWatch, consulta Utilizzo di ruoli collegati ai servizi per CloudWatch . Quando crei uno SLO, specifica se si tratta di uno SLO basato sul periodo o uno SLO basato su richiesta . Ogni tipo di SLO ha un modo diverso di valutare le prestazioni dell'applicazione rispetto all'obiettivo di raggiungimento. Uno SLO basato sul periodo utilizza periodi di tempo definiti all'interno di un intervallo di tempo totale specificato. Per ogni periodo di tempo, Application Signals determina se l'applicazione ha raggiunto il suo obiettivo. Il tasso di raggiungimento viene calcolato come number of good periods/number of total periods . Ad esempio, per uno SLO basato sul periodo, soddisfare un obiettivo di raggiungimento del 99,9% significa che, nell'intervallo stabilito, l'applicazione deve raggiungere il proprio obiettivo di prestazioni per almeno il 99,9% dei periodi di tempo. Uno SLO basato su richiesta non utilizza periodi di tempo predefiniti. Invece, lo SLO misura number of good requests/number of total requests durante l'intervallo. In qualsiasi momento, puoi trovare il rapporto tra le richieste valide e le richieste totali per l'intervallo fino al timestamp specificato e misurare tale rapporto rispetto all'obiettivo impostato nel tuo SLO. Argomenti Creazione di uno SLO basato sul periodo Creazione di uno SLO basato su richiesta Creazione di uno SLO basato sul periodo Per creare uno SLO basato sul periodo, utilizza la procedura seguente. Per creare uno SLO basato sul periodo Apri la console CloudWatch all'indirizzo https://console.aws.amazon.com/cloudwatch/ . Nel riquadro di navigazione scegli Obiettivi del livello di servizio (SLO) . Scegli Crea SLO . Inserisci un nome per lo SLO. L'inclusione del nome di un servizio o di un'operazione, insieme a parole chiave appropriate come latenza o disponibilità, ti aiuterà a identificare rapidamente cosa indica lo stato SLO durante la valutazione. In Imposta l'indicatore del livello di servizio (SLI) , effettua una delle seguenti operazioni: Per impostare lo SLO su uno dei parametri dell'applicazione standard Latency o Availability : Seleziona Operazione del servizio . Seleziona un account che lo SLO monitorerà. Seleziona il servizio che lo SLO monitorerà. Seleziona l'operazione che lo SLO monitorerà. Per Seleziona un metodo di calcolo , scegli Periodi . I menu a discesa Seleziona servizio e Seleziona operazione sono popolati da servizi e operazioni che sono stati attivi nelle ultime 24 ore. Seleziona Disponibilità o Latenza , quindi imposta la soglia. Per impostare lo SLO su qualsiasi parametro CloudWatch o su un'espressione matematica del parametro CloudWatch: Scegli Parametro CloudWatch . Scegli Seleziona parametro CloudWatch . Viene visualizzata la schermata Seleziona parametro . Utilizza le schede Sfoglia o Query per trovare il parametro desiderato oppure crea un'espressione matematica del parametro. Dopo aver selezionato il parametro desiderato, scegli la scheda Parametri nel grafico e seleziona le statistiche e il periodo da utilizzare per lo SLO. Quindi, scegli Seleziona parametro . Per informazioni su queste schermate, consulta Rappresentazione grafica di un parametro e Aggiungi un'espressione matematica a un grafico CloudWatch . Per Seleziona un metodo di calcolo , scegli Periodi . Per Imposta condizione , seleziona un operatore di confronto e una soglia per lo SLO da utilizzare come indicatore di successo. Per impostare lo SLO sulla dipendenza di un servizio da una delle metriche applicative standard Latency o Availability : Scegli Dipendenza del servizio . In Seleziona un servizio , seleziona il servizio che lo SLO monitorerà. In base al servizio selezionato, in Seleziona un'operazione , puoi selezionare un'operazione specifica o selezionare Tutte le operazioni per utilizzare le metriche di tutte le operazioni di questo servizio che richiama una dipendenza. In Seleziona una dipendenza , puoi cercare e selezionare la dipendenza richiesta per la quale desideri misurare l'affidabilità. Dopo aver selezionato la dipendenza, puoi visualizzare il grafico aggiornato e i dati storici in base alla dipendenza. Se hai selezionato Operazione del servizio o Dipendenza del servizio nel passaggio 5, imposta la durata del periodo per questo SLO. Imposta l' intervallo e l' obiettivo di raggiungimento per lo SLO. Per ulteriori informazioni sugli intervalli e sugli obiettivi di raggiungimento e su come interagiscono tra loro, consulta Concetti di SLO . (Facoltativo) Per Imposta gli indici di consumo dello SLO , effettua le seguenti operazioni: Imposta la durata (in minuti) della finestra di visualizzazione retrospettiva per l'indice di consumo. Per informazioni su come scegliere questa durata, consulta Procedure dettagliate per gli allarmi relativi all'indice di consumo . Per creare più indici di consumo per questo SLO, scegli Aggiungi altri indici di consumo e imposta la finestra di visualizzazione retrospettiva per gli indici di consumo aggiuntivi. (Facoltativo) Crea allarmi relativi all'indice di consumo eseguendo queste operazioni: In Imposta allarmi relativi all'indice di consumo seleziona la casella di controllo per ogni indice di consumo per il quale vuoi creare un allarme. Per ciascuno di questi allarmi, procedi come segue: Specifica l'argomento Amazon SNS da utilizzare per le notifiche quando l'allarme entra in stato ALARM. Imposta una soglia di indice di consumo oppure specifica la percentuale del budget totale stimato consumata nell'ultima finestra di visualizzazione retrospettiva che desideri non superare. Se imposti la percentuale del budget totale stimato consumata, la soglia dell'indice di consumo viene calcolata automaticamente e utilizzata nell'allarme. Per decidere quale soglia impostare o per capire come utilizzare questa opzione per calcolare la soglia dell'indice di consumo, consulta Determina la soglia appropriata per un allarme relativo all'indice di consumo . (Facoltativo) Imposta uno o più allarmi CloudWatch o una soglia di avviso per lo SLO. Gli allarmi CloudWatch possono utilizzare Amazon SNS per avvisarti proattivamente se un'applicazione non è integra in base alle sue prestazioni SLI. Per creare un allarme, seleziona una delle caselle di controllo relative agli allarmi e inserisci o crea l'argomento Amazon SNS da utilizzare per le notifiche quando l'allarme entra nello stato ALARM . Per ulteriori informazioni su CloudWatch, consulta Utilizzo degli CloudWatch allarmi Amazon . La creazione di allarmi comporta addebiti. Per ulteriori informazioni sui prezzi di CloudWatch, consulta Prezzi di Amazon CloudWatch . Se imposti una soglia di avviso, questa viene visualizzata nelle schermate di Application Signals per aiutarti a identificare gli SLO che rischiano di non essere raggiunti, anche se al momento sono integri. Per impostare una soglia di avviso, inserisci il valore della soglia in Soglia di avviso . Quando il budget di errore dello SLO è inferiore alla soglia di avviso, lo SLO viene contrassegnato con un avviso in diverse schermate di Application Signals. Le soglie di avviso vengono visualizzate anche nei grafici del budget di errore. Puoi anche creare un allarme di avviso per lo SLO basato sulla soglia di avviso. (Facoltativo) Per Imposta l'esclusione della finestra temporale SLO , procedi come segue: In Escludi finestra temporale , imposta la finestra temporale da escludere dalle metriche delle prestazioni SLO. Puoi scegliere Imposta finestra temporale e accedere alla Finestra di avvio per ogni ora o mese, oppure puoi scegliere Imposta finestra temporale con CRON e inserire l'espressione CRON. In Ripeti , imposta se l'esclusione di questa finestra temporale è ricorrente o meno. (Facoltativo) In Aggiungi motivo , puoi scegliere di inserire un motivo per l'esclusione della finestra temporale. Prendiamo come esempio la manutenzione programmata. Seleziona Aggiungi finestra temporale per aggiungere fino a 10 finestre di esclusione temporale. Per aggiungere tag a questo SLO, scegli la scheda Tag , quindi scegli Aggiungi nuovo tag . I tag possono aiutarti a gestire, identificare, organizzare, cercare e filtrare le risorse. Per ulteriori informazioni sui tag, consulta Tagging delle risorse AWS . Nota Se l'applicazione a cui è correlato questo SLO è registrata in AWS Service Catalog AppRegistry, puoi utilizzare il tag awsApplication per associare questo SLO all'applicazione in AppRegistry. Per ulteriori informazioni, consulta Che cos'è AppRegistry? Scegli Crea SLO . Se hai scelto anche di creare uno o più allarmi, il nome del pulsante cambia di conseguenza. Creazione di uno SLO basato su richiesta Per creare un SLO basato su richiesta, utilizza la procedura seguente. Creazione di un SLO basato su richiesta Apri la console CloudWatch all'indirizzo https://console.aws.amazon.com/cloudwatch/ . Nel riquadro di navigazione scegli Obiettivi del livello di servizio (SLO) . Scegli Crea SLO . Inserisci un nome per lo SLO. L'inclusione del nome di un servizio o di un'operazione, insieme a parole chiave appropriate come latenza o disponibilità, ti aiuterà a identificare rapidamente cosa indica lo stato SLO durante la valutazione. In Imposta l'indicatore del livello di servizio (SLI) , effettua una delle seguenti operazioni: Per impostare lo SLO su uno dei parametri dell'applicazione standard Latency o Availability : Seleziona Operazione del servizio . Seleziona il servizio che lo SLO monitorerà. Seleziona l'operazione che lo SLO monitorerà. Per Seleziona un metodo di calcolo , scegli Richieste . I menu a discesa Seleziona servizio e Seleziona operazione sono popolati da servizi e operazioni che sono stati attivi nelle ultime 24 ore. Scegli Disponibilità o Latenza . Se scegli Latenza , imposta la soglia. Per impostare lo SLO su qualsiasi parametro CloudWatch o su un'espressione matematica del parametro CloudWatch: Scegli Parametro CloudWatch . Per Definisci le richieste target , procedi come segue: Scegli se misurare le Richieste valide o le Richieste non valide . Scegli Seleziona parametro CloudWatch . Questa metrica sarà il numeratore del rapporto tra le richieste target e le richieste totali. Se utilizzi una metrica di latenza, utilizza le statistiche Trimmed count (TC) . Se la soglia è 9 ms e stai utilizzando l'operatore di confronto inferiore a (<), utilizza la soglia TC (:threshold - 1). Per ulteriori informazioni su TC, consulta Sintassi . Viene visualizzata la schermata Seleziona parametro . Utilizza le schede Sfoglia o Query per trovare il parametro desiderato oppure crea un'espressione matematica del parametro. Per Definisci le richieste totali , scegli la metrica CloudWatch che desideri utilizzare come origine. Questa metrica sarà il denominatore del rapporto tra le richieste target e le richieste totali. Viene visualizzata la schermata Seleziona parametro . Utilizza le schede Sfoglia o Query per trovare il parametro desiderato oppure crea un'espressione matematica del parametro. Dopo aver selezionato il parametro desiderato, scegli la scheda Parametri nel grafico e seleziona le statistiche e il periodo da utilizzare per lo SLO. Quindi, scegli Seleziona parametro . Se utilizzi una metrica di latenza che emette un punto dati per richiesta, utilizza le statistiche del conteggio dei campioni per contare il numero di richieste totali. Per informazioni su queste schermate, consulta Rappresentazione grafica di un parametro e Aggiungi un'espressione matematica a un grafico CloudWatch . Per impostare lo SLO sulla dipendenza di un servizio da una delle metriche applicative standard Latency o Availability : Scegli Dipendenza del servizio . In Seleziona un servizio , seleziona il servizio che lo SLO monitorerà. In base al servizio selezionato, in Seleziona un'operazione , puoi selezionare un'operazione specifica o selezionare Tutte le operazioni per utilizzare le metriche di tutte le operazioni di questo servizio che richiama una dipendenza. In Seleziona una dipendenza , puoi cercare e selezionare la dipendenza richiesta per la quale desideri misurare l'affidabilità. Dopo aver selezionato la dipendenza, puoi visualizzare il grafico aggiornato e i dati storici in base alla dipendenza. Imposta l' intervallo e l' obiettivo di raggiungimento per lo SLO. Per ulteriori informazioni sugli intervalli e sugli obiettivi di raggiungimento e su come interagiscono tra loro, consulta Concetti di SLO . (Facoltativo) Per Imposta gli indici di consumo dello SLO , effettua le seguenti operazioni: Imposta la durata (in minuti) della finestra di visualizzazione retrospettiva per l'indice di consumo. Per informazioni su come scegliere questa durata, consulta Procedure dettagliate per gli allarmi relativi all'indice di consumo . Per creare più indici di consumo per questo SLO, scegli Aggiungi altri indici di consumo e imposta la finestra di visualizzazione retrospettiva per gli indici di consumo aggiuntivi. (Facoltativo) Crea allarmi relativi all'indice di consumo eseguendo queste operazioni: In Imposta allarmi relativi all'indice di consumo seleziona la casella di controllo per ogni indice di consumo per il quale vuoi creare un allarme. Per ciascuno di questi allarmi, procedi come segue: Specifica l'argomento Amazon SNS da utilizzare per le notifiche quando l'allarme entra in stato ALARM. Imposta una soglia di indice di consumo oppure specifica la percentuale del budget totale stimato consumata nell'ultima finestra di visualizzazione retrospettiva che desideri non superare. Se imposti la percentuale del budget totale stimato consumata, la soglia dell'indice di consumo viene calcolata automaticamente e utilizzata nell'allarme. Per decidere quale soglia impostare o per capire come utilizzare questa opzione per calcolare la soglia dell'indice di consumo, consulta Determina la soglia appropriata per un allarme relativo all'indice di consumo . (Facoltativo) Imposta uno o più allarmi CloudWatch o una soglia di avviso per lo SLO. Gli allarmi CloudWatch possono utilizzare Amazon SNS per avvisarti proattivamente se un'applicazione non è integra in base alle sue prestazioni SLI. Per creare un allarme, seleziona una delle caselle di controllo relative agli allarmi e inserisci o crea l'argomento Amazon SNS da utilizzare per le notifiche quando l'allarme entra nello stato ALARM . Per ulteriori informazioni su CloudWatch, consulta Utilizzo degli CloudWatch allarmi Amazon . La creazione di allarmi comporta addebiti. Per ulteriori informazioni sui prezzi di CloudWatch, consulta Prezzi di Amazon CloudWatch . Se imposti una soglia di avviso, questa viene visualizzata nelle schermate di Application Signals per aiutarti a identificare gli SLO che rischiano di non essere raggiunti, anche se al momento sono integri. Per impostare una soglia di avviso, inserisci il valore della soglia in Soglia di avviso . Quando il budget di errore dello SLO è inferiore alla soglia di avviso, lo SLO viene contrassegnato con un avviso in diverse schermate di Application Signals. Le soglie di avviso vengono visualizzate anche nei grafici del budget di errore. Puoi anche creare un allarme di avviso per lo SLO basato sulla soglia di avviso. (Facoltativo) Per Imposta l'esclusione della finestra temporale SLO , procedi come segue: In Escludi finestra temporale , imposta la finestra temporale da escludere dalle metriche delle prestazioni SLO. Puoi scegliere Imposta finestra temporale e accedere alla Finestra di avvio per ogni ora o mese, oppure puoi scegliere Imposta finestra temporale con CRON e inserire l'espressione CRON. In Ripeti , imposta se l'esclusione di questa finestra temporale è ricorrente o meno. (Facoltativo) In Aggiungi motivo , puoi scegliere di inserire un motivo per l'esclusione della finestra temporale. Prendiamo come esempio la manutenzione programmata. Seleziona Aggiungi finestra temporale per aggiungere fino a 10 finestre di esclusione temporale. Per aggiungere tag a questo SLO, scegli la scheda Tag , quindi scegli Aggiungi nuovo tag . I tag possono aiutarti a gestire, identificare, organizzare, cercare e filtrare le risorse. Per ulteriori informazioni sui tag, consulta Tagging delle risorse AWS . Nota Se l'applicazione a cui è correlato questo SLO è registrata in AWS Service Catalog AppRegistry, puoi utilizzare il tag awsApplication per associare questo SLO all'applicazione in AppRegistry. Per ulteriori informazioni, consulta Che cos'è AppRegistry? Scegli Crea SLO . Se hai scelto anche di creare uno o più allarmi, il nome del pulsante cambia di conseguenza. Visualizza e valuta lo stato SLO Puoi visualizzare rapidamente lo stato dei tuoi SLO utilizzando le opzioni Obiettivi del livello di servizio o Servizi nella console CloudWatch. La visualizzazione Servizi offre una panoramica immediata della percentuale di servizi non integri, calcolata in base agli SLO che hai impostato. Per ulteriori informazioni sull'uso dell'opzione Servizi , consulta Monitoraggio dell'integrità operativa delle applicazioni con Application Signals . La visualizzazione Obiettivi del livello di servizio offre una panoramica macro dell'organizzazione. È possibile visualizzare gli SLO soddisfatti e non soddisfatti nel loro complesso. In questo modo puoi avere un'idea di quanti dei tuoi servizi e delle tue operazioni rispondono alle tue aspettative per periodi di tempo più lunghi, in base agli SLI che hai scelto. Per visualizzare tutti gli SLO utilizzando la visualizzazione Obiettivi del livello di servizio Apri la console CloudWatch all'indirizzo https://console.aws.amazon.com/cloudwatch/ . Nel riquadro di navigazione scegli Obiettivi del livello di servizio (SLO) . Viene visualizzato l'elenco Obiettivi del livello di servizio (SLO) . Puoi visualizzare rapidamente lo stato attuale degli SLO nella colonna Stato SLI . Per ordinare gli SLO in modo che tutti gli SLO non integri siano in cima all'elenco, scegli la colonna dello stato SLI finché gli SLO non integri non saranno tutti in cima alla lista. La tabella dello SLO contiene le colonne predefinite riportate di seguito. Puoi modificare le colonne da visualizzare selezionando l'icona a forma di ingranaggio sopra l'elenco. Per ulteriori informazioni su obiettivi, SLI, raggiungimento e intervalli, consulta Concetti di SLO . Il nome dello SLO. La colonna Obiettivo mostra la percentuale di periodi di ogni intervallo che devono soddisfare correttamente la soglia SLI affinché venga raggiunto l'obiettivo SLO. Mostra anche la durata dell'intervallo per lo SLO. Lo stato SLI indica l'integrità dello stato operativo corrente dell'applicazione. Se un periodo dell'intervallo di tempo attualmente selezionato non era integro per lo SLO, lo stato SLI mostra Non integro . Se questo SLO è configurato per monitorare una dipendenza, le colonne Dipendenza e Operazione remota mostreranno i dettagli su quella relazione di dipendenza. Il raggiungimento finale è il livello di successo raggiunto alla fine dell'intervallo di tempo selezionato. Ordina in base a questa colonna per vedere gli SLO che rischiano maggiormente di non essere rispettati. Il delta di raggiungimento è la differenza nel livello di raggiungimento tra l'inizio e la fine dell'intervallo di tempo selezionato. Un delta negativo indica che il parametro tende verso il basso. Ordina in base a questa colonna per vedere le tendenze più recenti degli SLO. Il budget di errore finale (%) è la percentuale di tempo totale all'interno del periodo in cui è possibile che si verifichino periodi non integri senza impedire che lo SLO sia raggiunto con successo. Se lo si imposta al 5% e lo SLI non è integro nel 5% o meno dei periodi rimanenti dell'intervallo, lo SLO viene comunque raggiunto con successo. Il delta del budget di errore è la differenza nel budget di errore tra l'inizio e la fine dell'intervallo di tempo selezionato. Un delta negativo indica che il parametro tende verso la non riuscita. Il budget di errore finale (tempo) è la quantità di tempo effettivo nell'intervallo che può essere non integro senza impedire che lo SLO sia raggiunto con successo. Ad esempio, se si tratta di 14 minuti, se lo SLI non è integro per meno di 14 minuti durante l'intervallo rimanente, lo SLO verrà comunque raggiunto con successo. Il budget di errore finale (richieste) è la quantità di richieste nell'intervallo che può essere non integro senza impedire che lo SLO sia raggiunto correttamente. Per gli SLO basati su richieste, questo valore è dinamico e può cambiare al variare del numero totale cumulativo di richieste nel tempo. Le colonne Servizio , Operazione e Tipo mostrano informazioni sul servizio e sull'operazione per cui è impostato questo SLO. Per visualizzare i grafici del raggiungimento e del budget di errore per uno SLO, seleziona il pulsante di opzione accanto al nome dello SLO. I grafici nella parte superiore della pagina mostrano il raggiungimento dello SLO e lo stato del budget di errore. Viene inoltre visualizzato un grafico sul parametro SLI associato a questo SLO. Per valutare ulteriormente uno SLO che non soddisfa il suo obiettivo, scegli il nome del servizio, dell'operazione o della dipendenza associato a tale SLO. Verrà visualizzata la pagina dei dettagli dove puoi effettuare ulteriori operazioni di valutazione. Per ulteriori informazioni, consulta Visualizzazione dell'attività dettagliata del servizio e dell'integrità operativa tramite la pagina dei dettagli del servizio . Per modificare l'intervallo di tempo dei grafici e delle tabelle sulla pagina, scegli un nuovo intervallo di tempo nella parte superiore dello schermo. Modifica di uno SLO esistente Segui questa procedura per modificare uno SLO esistente. Quando modifichi uno SLO, puoi cambiare solo la soglia, l'intervallo, l'obiettivo di raggiungimento e i tag. Per modificare altri aspetti come il servizio, l'operazione o il parametro, crea un nuovo SLO invece di modificarne uno esistente. La modifica di parte di una configurazione principale dello SLO, come il periodo o la soglia, invalida tutti i dati e le valutazioni precedenti relativi al raggiungimento e all'integrità. Questa operazione elimina e ricrea efficacemente lo SLO. Nota Quando modifichi uno SLO, gli allarmi associati non vengono aggiornati automaticamente. Potrebbe essere necessario aggiornare gli allarmi per mantenerli sincronizzati con lo SLO. Per modificare uno SLO esistente Apri la console CloudWatch all'indirizzo https://console.aws.amazon.com/cloudwatch/ . Nel riquadro di navigazione scegli Obiettivi del livello di servizio (SLO) . Scegli il pulsante di opzione accanto allo SLO che desideri modificare, quindi scegli Operazioni , Modifica SLO . Apporta le modifiche desiderate e seleziona Salva modifiche . Eliminazione di uno SLO Segui questa procedura per eliminare uno SLO esistente. Nota Quando elimini uno SLO, gli allarmi associati non vengono eliminati automaticamente. Sarà necessario eliminarli manualmente. Per ulteriori informazioni, consulta Gestione degli allarmi . Per eliminare uno SLO Apri la console CloudWatch all'indirizzo https://console.aws.amazon.com/cloudwatch/ . Nel riquadro di navigazione scegli Obiettivi del livello di servizio (SLO) . Scegli il pulsante di opzione accanto allo SLO che desideri modificare, quindi scegli Operazioni , Elimina SLO . Scegli Conferma . JavaScript è disabilitato o non è disponibile nel tuo browser. Per usare la documentazione AWS, JavaScript deve essere abilitato. Consulta le pagine della guida del browser per le istruzioni. Convenzioni dei documenti Metriche personalizzate con Application Signals Transaction Search Questa pagina ti è stata utile? - Sì Grazie per averci comunicato che stiamo facendo un buon lavoro! Se hai un momento, ti invitiamo a dirci che cosa abbiamo fatto che ti è piaciuto così possiamo offrirti altri contenuti simili. Questa pagina ti è stata utile? - No Grazie per averci comunicato che questa pagina ha bisogno di essere modificata. Siamo spiacenti di non aver soddisfatto le tue esigenze. Se hai un momento, ti invitiamo a dirci come possiamo migliorare la documentazione. | 2026-01-13T09:29:26 |
https://git-scm.com/book/cs/v2/Git-Tools-Revision-Selection | Git - Revision Selection About Trademark Learn Book Cheat Sheet Videos External Links Tools Command Line GUIs Hosting Reference Install Community This book is available in English . Full translation available in azərbaycan dili , български език , Deutsch , Español , فارسی , Français , Ελληνικά , 日本語 , 한국어 , Nederlands , Русский , Slovenščina , Tagalog , Українська , 简体中文 , Partial translations available in Čeština , Македонски , Polski , Српски , Ўзбекча , 繁體中文 , Translations started for Беларуская , Indonesian , Italiano , Bahasa Melayu , Português (Brasil) , Português (Portugal) , Svenska , Türkçe . The source of this book is hosted on GitHub. Patches, suggestions and comments are welcome. Chapters ▾ 1. Úvod 1.1 Správa verzí 1.2 Stručná historie systému Git 1.3 Základy systému Git 1.4 Příkazový řádek 1.5 Instalace systému Git 1.6 První nastavení systému Git 1.7 Získání nápovědy 1.8 Shrnutí 2. Základy práce se systémem Git 2.1 Získání repozitáře Git 2.2 Nahrávání změn do repozitáře 2.3 Zobrazení historie revizí 2.4 Návrat do předchozího stavu 2.5 Práce se vzdálenými repozitáři 2.6 Používání značek 2.7 Aliasy v Gitu 2.8 Shrnutí 3. Větve v systému Git 3.1 Větve v kostce 3.2 Základy větvení a slučování 3.3 Správa větví 3.4 Postupy při práci s větvemi 3.5 Vzdálené větve 3.6 Přeskládání 3.7 Shrnutí 4. Git na serveru 4.1 Protokoly 4.2 Zprovoznění Gitu na serveru 4.3 Generování veřejného klíče SSH 4.4 Nastavení serveru 4.5 Démon Git 4.6 Chytrý HTTP 4.7 GitWeb 4.8 GitLab 4.9 Možnosti hostování u třetí strany 4.10 Shrnutí 5. Distribuovaný Git 5.1 Distribuované pracovní postupy 5.2 Přispívání do projektu 5.3 Správa projektu 5.4 Shrnutí 6. GitHub 6.1 Zřízení účtu a úprava konfigurace 6.2 Přispívání do projektu 6.3 Maintaining a Project 6.4 Managing an organization 6.5 Scripting GitHub 6.6 Shrnutí 7. Git Tools 7.1 Revision Selection 7.2 Interactive Staging 7.3 Stashing and Cleaning 7.4 Signing Your Work 7.5 Searching 7.6 Rewriting History 7.7 Reset Demystified 7.8 Advanced Merging 7.9 Rerere 7.10 Ladění v systému Git 7.11 Submodules 7.12 Bundling 7.13 Replace 7.14 Credential Storage 7.15 Shrnutí 8. Customizing Git 8.1 Git Configuration 8.2 Atributy Git 8.3 Git Hooks 8.4 An Example Git-Enforced Policy 8.5 Shrnutí 9. Git a ostatní systémy 9.1 Git as a Client 9.2 Migrating to Git 9.3 Shrnutí 10. Git Internals 10.1 Plumbing and Porcelain 10.2 Git Objects 10.3 Git References 10.4 Balíčkové soubory 10.5 The Refspec 10.6 Přenosové protokoly 10.7 Správa a obnova dat 10.8 Environment Variables 10.9 Shrnutí A1. Appendix A: Git in Other Environments A1.1 Graphical Interfaces A1.2 Git in Visual Studio A1.3 Git in Eclipse A1.4 Git in Bash A1.5 Git in Zsh A1.6 Git in Powershell A1.7 Shrnutí A2. Appendix B: Embedding Git in your Applications A2.1 Command-line Git A2.2 Libgit2 A2.3 JGit A3. Appendix C: Git Commands A3.1 Setup and Config A3.2 Getting and Creating Projects A3.3 Basic Snapshotting A3.4 Branching and Merging A3.5 Sharing and Updating Projects A3.6 Inspection and Comparison A3.7 Debugging A3.8 Patching A3.9 Email A3.10 External Systems A3.11 Administration A3.12 Plumbing Commands 2nd Edition 7.1 Git Tools - Revision Selection Do této chvíle jste stačili poznat většinu každodenních příkazů a pracovních postupů, které budete při práci se zdrojovým kódem potřebovat k ovládání a správě repozitáře Git. Zvládli jste základní úkony sledování a zapisování souborů a pochopili jste přednosti přípravy souborů k zapsání i snadného vytváření a začleňování větví. Nyní poznáte několik velmi účinných nástrojů, které vám Git nabízí. Pravděpodobně je nebudete používat každý den, ale přesto se vám mohou čas od času hodit. Revision Selection Systém Git umožňuje určit jednotlivé revize nebo interval revizí několika způsoby. Není nezbytně nutné, abyste je všechny znali, ale mohou být užitečné. Jednotlivé revize Revizi můžete samozřejmě specifikovat na základě otisku SHA-1, jenž jí byl přidělen. Existují však i uživatelsky příjemnější způsoby, jak označit konkrétní revizi. Tato část uvede několik různých způsobů, jak lze určit jednu konkrétní revizi. Short SHA-1 Git is smart enough to figure out what commit you meant to type if you provide the first few characters, as long as your partial SHA-1 is at least four characters long and unambiguous – that is, only one object in the current repository begins with that partial SHA-1. Pokud si chcete například prohlédnout konkrétní revizi, řekněme, že spustíte příkaz git log a určíte revizi, do níž jste vložili určitou funkci: $ git log commit 734713bc047d87bf7eac9674765ae793478c50d3 Author: Scott Chacon <schacon@gmail.com> Date: Fri Jan 2 18:32:33 2009 -0800 fixed refs handling, added gc auto, updated tests commit d921970aadf03b3cf0e71becdaab3147ba71cdef Merge: 1c002dd... 35cfb2b... Author: Scott Chacon <schacon@gmail.com> Date: Thu Dec 11 15:08:43 2008 -0800 Merge commit 'phedders/rdocs' commit 1c002dd4b536e7479fe34593e72e6c6c1819e53b Author: Scott Chacon <schacon@gmail.com> Date: Thu Dec 11 14:58:32 2008 -0800 added some blame and merge stuff In this case, choose 1c002dd... . If you git show that commit, the following commands are equivalent (assuming the shorter versions are unambiguous): $ git show 1c002dd4b536e7479fe34593e72e6c6c1819e53b $ git show 1c002dd4b536e7479f $ git show 1c002d Git dokáže identifikovat krátkou, jednoznačnou zkratku hodnoty SHA-1. Zadáte-li k příkazu git log parametr --abbrev-commit , výstup bude používat kratší hodnoty, ale pouze v jednoznačném tvaru. Standardně se používá sedm znaků, avšak je-li to kvůli jednoznačnosti hodnoty SHA-1 nezbytné, bude použito znaků více: $ git log --abbrev-commit --pretty=oneline ca82a6d changed the version number 085bb3b removed unnecessary test code a11bef0 first commit Osm až deset znaků většinou bohatě stačí, aby byla hodnota v rámci projektu jednoznačná. As an example, the Linux kernel, which is a pretty large project with over 450k commits and 3.6 million objects, has no two objects whose SHA-1s overlap more than the first 11 characters. Note A SHORT NOTE ABOUT SHA-1 Někteří uživatelé bývají zmateni, že mohou mít v repozitáři — shodou okolností — dva objekty, které mají stejnou hodnotu SHA-1 otisku. Co teď? Pokud náhodou zapíšete objekt, který má stejnou hodnotu SHA-1 otisku jako předchozí objekt ve vašem repozitáři, Git už uvidí předchozí objekt v databázi Git a bude předpokládat, že už byl zapsán. Pokud se někdy v budoucnosti pokusíte znovu provést checkout tohoto objektu, vždy dostanete data prvního objektu. Měli bychom však také říci, jak moc je nepravděpodobné, že taková situace nastane. Otisk SHA-1 má 20 bytů, neboli 160 bitů. The number of randomly hashed objects needed to ensure a 50% probability of a single collision is about 2 80 (the formula for determining collision probability is p = (n(n-1)/2) * (1/2^160)) . 2 80 is 1.2 x 10 24 or 1 million billion billion. To je 1200násobek počtu všech zrnek písku na celé Zemi. Abyste si udělali představu, jak je nepravděpodobné, že dojde ke kolizi hodnot SHA-1, připojujeme jeden malý příklad. If all 6.5 billion humans on Earth were programming, and every second, each one was producing code that was the equivalent of the entire Linux kernel history (3.6 million Git objects) and pushing it into one enormous Git repository, it would take roughly 2 years until that repository contained enough objects to have a 50% probability of a single SHA-1 object collision. To už je pravděpodobnější, že všichni členové vašeho programovacího týmu budou během jedné noci v navzájem nesouvisejících incidentech napadeni a zabiti smečkou vlků. Branch References The most straightforward way to specify a commit requires that it has a branch reference pointed at it. V takovém případě můžete použít název větve v libovolném příkazu Git, který vyžaduje objekt revize nebo hodnotu SHA-1. Pokud chcete například zobrazit objekt poslední revize větve, můžete využít některý z následujících příkazů (za předpokladu, že větev topic1 ukazuje na ca82a6d ): $ git show ca82a6dff817ec66f44342007202690a93763949 $ git show topic1 If you want to see which specific SHA-1 a branch points to, or if you want to see what any of these examples boils down to in terms of SHA-1s, you can use a Git plumbing tool called rev-parse . You can see Git Internals for more information about plumbing tools; basically, rev-parse exists for lower-level operations and isn’t designed to be used in day-to-day operations. Může se však hodit, až budete jednou potřebovat zjistit, co se doopravdy odehrává. Tehdy můžete na svou větev spustit příkaz rev-parse : $ git rev-parse topic1 ca82a6dff817ec66f44342007202690a93763949 RefLog Shortnames One of the things Git does in the background while you’re working away is keep a “reflog” – a log of where your HEAD and branch references have been for the last few months. Svůj reflog si můžete nechat zobrazit příkazem git reflog : $ git reflog 734713b HEAD@{0}: commit: fixed refs handling, added gc auto, updated d921970 HEAD@{1}: merge phedders/rdocs: Merge made by recursive. 1c002dd HEAD@{2}: commit: added some blame and merge stuff 1c36188 HEAD@{3}: rebase -i (squash): updating HEAD 95df984 HEAD@{4}: commit: # This is a combination of two commits. 1c36188 HEAD@{5}: rebase -i (squash): updating HEAD 7e05da5 HEAD@{6}: rebase -i (pick): updating HEAD Pokaždé, když je z nějakého důvodu aktualizován vrchol větve, Git tuto informaci uloží v dočasné historii reflog. Pomocí těchto dat lze rovněž specifikovat starší revize. Chcete-li zobrazit pátou poslední hodnotu ukazatele HEAD svého repozitáře, použijte referenci @{n} z výstupu reflog: $ git show HEAD@{5} Tuto syntaxi můžete použít také k zobrazení pozice, na níž se větev nacházela před určitou dobou. Chcete-li například zjistit, kde byla vaše větev master včera (yesterday), můžete zadat příkaz: $ git show master@{yesterday} Git vám ukáže, kde se vrchol větve nacházel včera. Tato možnost funguje pouze pro data, jež jsou dosud v záznamu reflog. Nemůžete ji proto použít pro revize starší než několik měsíců. Chcete-li zobrazit informace záznamu reflog ve formátu výstupu git log , zadejte příkaz git log -g : $ git log -g master commit 734713bc047d87bf7eac9674765ae793478c50d3 Reflog: master@{0} (Scott Chacon <schacon@gmail.com>) Reflog message: commit: fixed refs handling, added gc auto, updated Author: Scott Chacon <schacon@gmail.com> Date: Fri Jan 2 18:32:33 2009 -0800 fixed refs handling, added gc auto, updated tests commit d921970aadf03b3cf0e71becdaab3147ba71cdef Reflog: master@{1} (Scott Chacon <schacon@gmail.com>) Reflog message: merge phedders/rdocs: Merge made by recursive. Author: Scott Chacon <schacon@gmail.com> Date: Thu Dec 11 15:08:43 2008 -0800 Merge commit 'phedders/rdocs' It’s important to note that the reflog information is strictly local – it’s a log of what you’ve done in your repository. The references won’t be the same on someone else’s copy of the repository; and right after you initially clone a repository, you’ll have an empty reflog, as no activity has occurred yet in your repository. Running git show HEAD@{2.months.ago} will work only if you cloned the project at least two months ago – if you cloned it five minutes ago, you’ll get no results. Reference podle původu Další základní způsob, jak specifikovat konkrétní revizi, je na základě jejího původu. Umístíte-li na konec reference znak ^ , Git bude referenci chápat tak, že označuje rodiče dané revize. Můžete mít například takovouto historii projektu: $ git log --pretty=format:'%h %s' --graph * 734713b fixed refs handling, added gc auto, updated tests * d921970 Merge commit 'phedders/rdocs' |\ | * 35cfb2b Some rdoc changes * | 1c002dd added some blame and merge stuff |/ * 1c36188 ignore *.gem * 9b29157 add open3_detach to gemspec file list Then, you can see the previous commit by specifying HEAD^ , which means “the parent of HEAD”: $ git show HEAD^ commit d921970aadf03b3cf0e71becdaab3147ba71cdef Merge: 1c002dd... 35cfb2b... Author: Scott Chacon <schacon@gmail.com> Date: Thu Dec 11 15:08:43 2008 -0800 Merge commit 'phedders/rdocs' You can also specify a number after the ^ – for example, d921970^2 means “the second parent of d921970.” This syntax is only useful for merge commits, which have more than one parent. První rodič je větev, na níž jste se během začlenění nacházeli, druhým rodičem je větev, kterou jste začleňovali: $ git show d921970^ commit 1c002dd4b536e7479fe34593e72e6c6c1819e53b Author: Scott Chacon <schacon@gmail.com> Date: Thu Dec 11 14:58:32 2008 -0800 added some blame and merge stuff $ git show d921970^2 commit 35cfb2b795a55793d7cc56a6cc2060b4bb732548 Author: Paul Hedderly <paul+git@mjr.org> Date: Wed Dec 10 22:22:03 2008 +0000 Some rdoc changes Další základní možností označení původu je znak ~ . Také tento znak označuje prvního rodiče, výrazy HEAD~ a HEAD^ jsou proto ekvivalentní. Rozdíl mezi nimi je patrný při zadání čísla. HEAD~2 means “the first parent of the first parent,” or “the grandparent” – it traverses the first parents the number of times you specify. Například v historii naznačené výše by HEAD~3 znamenalo $ git show HEAD~3 commit 1c3618887afb5fbcbea25b7c013f4e2114448b8d Author: Tom Preston-Werner <tom@mojombo.com> Date: Fri Nov 7 13:47:59 2008 -0500 ignore *.gem Totéž by bylo možné označit výrazem HEAD^^^ , který opět udává prvního rodiče prvního rodiče prvního rodiče: $ git show HEAD^^^ commit 1c3618887afb5fbcbea25b7c013f4e2114448b8d Author: Tom Preston-Werner <tom@mojombo.com> Date: Fri Nov 7 13:47:59 2008 -0500 ignore *.gem You can also combine these syntaxes – you can get the second parent of the previous reference (assuming it was a merge commit) by using HEAD~3^2 , and so on. Commit Ranges Nyní, když umíte určit jednotlivé revize, podíváme se, jak lze určovat celé intervaly revizí. This is particularly useful for managing your branches – if you have a lot of branches, you can use range specifications to answer questions such as, “What work is on this branch that I haven’t yet merged into my main branch?” Dvě tečky Nejčastěji se při označení intervalu používá dvojtečková syntaxe. Pomocí ní systému Git v podstatě říkáte, aby uvažoval celý interval revizí, které jsou dostupné z jedné revize, ale nejsou dostupné z jiné. For example, say you have a commit history that looks like Example history for range selection. . Figure 137. Example history for range selection. Vy chcete vidět, co všechno obsahuje vaše experimentální větev, kterou jste ještě nezačlenili do hlavní větve. You can ask Git to show you a log of just those commits with master..experiment – that means “all commits reachable by experiment that aren’t reachable by master.” For the sake of brevity and clarity in these examples, I’ll use the letters of the commit objects from the diagram in place of the actual log output in the order that they would display: $ git log master..experiment D C If, on the other hand, you want to see the opposite – all commits in master that aren’t in experiment – you can reverse the branch names. Výraz experiment..master zobrazí vše ve větvi master , co není dostupné ve větvi experiment : $ git log experiment..master F E Tento log využijete, pokud chcete udržovat větev experiment stále aktuální a zjistit, co hodláte začlenit. Tato syntaxe se velmi často používá také ke zjištění, co hodláte odeslat do vzdálené větve: $ git log origin/master..HEAD Tento příkaz zobrazí všechny revize ve vaší aktuální větvi, které nejsou obsaženy ve větvi master vzdáleného repozitáře origin . Spustíte-li příkaz git push a vaše aktuální větev sleduje větev origin/master , budou na server přesunuty revize, které lze zobrazit příkazem git log origin/master..HEAD . Jednu stranu intervalu můžete zcela vynechat, Git na její místo automaticky dosadí HEAD. For example, you can get the same results as in the previous example by typing git log origin/master.. – Git substitutes HEAD if one side is missing. Několik bodů Zápis s dvěma tečkami přestavuje užitečnou zkratku. Možná ale budete chtít k označení revize určit více než dvě větve, např. až budete chtít zjistit, které revize jsou obsaženy ve všech ostatních větvích a zároveň nejsou obsaženy ve větvi, na níž se právě nacházíte. V systému Git to můžete provést buď zadáním znaku ^ nebo parametru --not před referencí, jejíž dostupné revize si nepřejete zobrazit. Tyto tři příkazy jsou tedy ekvivalentní: $ git log refA..refB $ git log ^refA refB $ git log refB --not refA Tato syntaxe je užitečná zejména proto, že pomocí ní můžete zadat více než dvě reference, což není pomocí dvojtečkové syntaxe možné. Pokud chcete zobrazit například všechny revize, které jsou dostupné ve větvi refA nebo refB , ale nikoli ve větvi refC , zadejte jeden z následujících příkazů: $ git log refA refB ^refC $ git log refA refB --not refC Tím máte v rukou velmi efektivní systém vyhledávání revizí, který vám pomůže zjistit, co vaše větve obsahují. Triple Dot Poslední významnou syntaxí k určení intervalu je trojtečková syntaxe, která vybere všechny revize dostupné ve dvou referencích, ale ne v obou zároveň. Look back at the example commit history in Example history for range selection. . Chcete-li zjistit, co je ve větvi master nebo experiment , ale nechcete vidět jejich společné reference, zadejte příkaz: $ git log master...experiment F E D C Výstupem příkazu bude běžný výpis příkazu log , ale zobrazí se pouze informace o těchto čtyřech revizích, uspořádané v tradičním pořadí podle data zapsání. Přepínačem, který se v tomto případě běžně používá v kombinaci s příkazem log , je parametr --left-right . Příkaz pak zobrazí, na jaké straně intervalu se ta která revize nachází. Díky tomu získáte k datům další užitečné informace: $ git log --left-right master...experiment < F < E > D > C Pomocí těchto nástrojů můžete v systému Git daleko snáze specifikovat, kterou revizi nebo které revize chcete zobrazit. prev | next About this site Patches, suggestions, and comments are welcome. Git is a member of Software Freedom Conservancy | 2026-01-13T09:29:26 |
https://foundryco.com/ad-choices/ | Foundry Ad Choices & Interest-Based Ads Policy Skip to content Search Contact us Translation available Select an experience Japan Global Search for: Search Brands CIO CSO InfoWorld Network World Computerworld Macworld PCWorld Tech Advisor TechHive ChannelWorld Specialty brands CIO100 CSO50 All brands Audiences Artificial intelligence Cloud Security Hardware Software All audiences Solutions Ads Audiences Lead gen Intent data Brand experiences Interactive storytelling Events Partner marketing Content creation Affiliate marketing All solutions Research Technology insights AI Priorities CIO Tech Priorities Cloud Computing Security Priorities State of the CIO Buying process Customer Engagement Role & Influence Partner Marketing All research Resources Resources Tools for marketers Blog Videos Customer stories Developer portal The Intersection newsletter All resources About us Press Awards Work here Privacy / Compliance Licensing About Us Brands CIO CSO InfoWorld Network World Computerworld Macworld PCWorld Tech Advisor TechHive ChannelWorld Specialty brands CIO 100 CSO50 All brands Audiences Artificial intelligence Cloud Security Hardware Software All audiences Solutions Ads Lead gen Intent data Brand experiences Interactive storytelling Events Partner marketing Content creation Affiliate marketing All solutions Research Technology insights AI Priorities CIO Tech Priorities Cloud Computing Security Priorities State of the CIO Buying process Customer Engagement Role & Influence Partner Marketing All research Resources Resources Tools for marketers Blog Videos Customer stories Developer Portal The Intersection newsletter All Resources About us Press Awards Work here Privacy / Compliance Licensing About Us Contact Log in Edition - Select an experience Japan Global About Foundry Ad Choices Foundry strives to deliver the most relevant content and ads to our readers. The advertising included on our site enables us to deliver the reporting resources required to create the high-quality journalism, research and analysis our audience expects. Advertisements displayed on our site may be based on the content of pages viewed or delivered by third parties and tailored to your interests. These third parties may also collect anonymous, non-personally identifiable information through cookies, web beacons and other technologies about your online activities on this site in order to deliver advertisements relevant to your interests. Our Policy Foundry follows the Self-Regulatory Principles for Online Behavioral advertising. More information on the principles, as well as information and choices about interest-based advertising, can be found at the Self-Regulatory Program site , including links to opt-out from services that deliver online behavioral ads. For additional information on cookies, web beacons and our collection and use of information, please read our Privacy Policy . Our brands Solutions Research Resources Events About Newsletter Contact us Work here Sitemap Topics Cookies: First-party & third-party Generative AI sponsorships Intent data IP address intelligence Reverse IP lookup Website visitor tracking Legal Terms of Service Privacy / Compliance Environmental Policy Copyright Notice Licensing CCPA IAB Europe TCF Regions ASEAN Australia & New Zealand Central Europe Germany India Middle East, Turkey, & Africa Nordics Southern Europe Western Europe Facebook Twitter LinkedIn ©2026 FoundryCo, Inc. All Rights Reserved. Privacy Policy Ad Choices Privacy Settings California: Do Not Sell My Information | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/zh_tw/AmazonCloudWatch/latest/monitoring/supported-operating-systems.html | 支援的作業系統 - Amazon CloudWatch 支援的作業系統 - Amazon CloudWatch 文件 Amazon CloudWatch 使用者指南 x86-64 架構 ARM64 架構 本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。 支援的作業系統 下列作業系統支援 CloudWatch 代理程式: x86-64 架構 Amazon Linux 2023 Amazon Linux 2 Ubuntu Server 25.04、24.04 和 22.04 版 Red Hat Enterprise Linux (RHEL) 第 10、9 和 8 版 Debian 第 12 版 SUSE Linux Enterprise Server (SLES) 第 15 版 Oracle Linux 第 9 版和第 8 版 AlmaLinux 第 10、9 和 8 版 Rocky Linux 版本 10、9 和 8 macOS 電腦:EC2 M1 Mac1 執行個體,以及執行 macOS 14 (Sonoma)、macOS 13 (Ventura) 和 macOS 12 (Monterey) 的電腦 Windows Server 2025、Windows Server 2022、Windows Server 2019 和 Windows Server 2016 Windows 11 64 位元 Windows 10 ARM64 架構 Amazon Linux 2023 Amazon Linux 2 Ubuntu Server 22.04 版 Red Hat Enterprise Linux (RHEL) 第 9 版和第 8 版 Debian 第 12 版 SUSE Linux Enterprise Server 15 macOS 電腦:macOS 14 (Sonoma)、macOS 13 (Ventura) 和 macOS 12 (Monterey) 您的瀏覽器已停用或無法使用 Javascript。 您必須啟用 Javascript,才能使用 AWS 文件。請參閱您的瀏覽器說明頁以取得說明。 文件慣用形式 CloudWatch 代理程式 先決條件 此頁面是否有幫助? - 是 感謝您,讓我們知道我們做得很好! 若您有空,歡迎您告知我們值得讚許的地方,這樣才能保持良好服務。 此頁面是否有幫助? - 否 感謝讓我們知道此頁面仍須改善。很抱歉,讓您失望。 若您有空,歡迎您提供改善文件的方式。 | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/it_it/AmazonCloudWatch/latest/monitoring/CloudWatch-Application-Signals-Enable.html | Abilitazione di Application Signals in un account - Amazon CloudWatch Abilitazione di Application Signals in un account - Amazon CloudWatch Documentazione Amazon CloudWatch Guida per l’utente Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà. Abilitazione di Application Signals in un account Se non hai ancora abilitato Application Signals in questo account, devi concedere ad Application Signals le autorizzazioni necessarie per scoprire i tuoi servizi. È necessario eseguire questa operazione solo una volta per account. Per abilitare CloudWatch Application Signals, procedi come segue. Apri la console CloudWatch all'indirizzo https://console.aws.amazon.com/cloudwatch/ . Nel riquadro di navigazione, scegli Servizi . Scegli Inizia a scoprire i tuoi servizi . Seleziona la casella di controllo e scegli Inizia a scoprire i servizi . Il completamento di questo passaggio per la prima volta nel tuo account crea il ruolo collegato al servizio AWSServiceRoleForCloudWatchApplicationSignals . Questo ruolo concede ad Application Signals le seguenti autorizzazioni: xray:GetServiceGraph logs:StartQuery logs:GetQueryResults cloudwatch:GetMetricData cloudwatch:ListMetrics tag:GetResources Per ulteriori informazioni su questo ruolo, consulta Autorizzazioni di ruolo collegate al servizio per Application Signals CloudWatch . Scegli Abilita Application Signals . JavaScript è disabilitato o non è disponibile nel tuo browser. Per usare la documentazione AWS, JavaScript deve essere abilitato. Consulta le pagine della guida del browser per le istruzioni. Convenzioni dei documenti Configurazioni di instrumentazione supportate (Facoltativo) Prova di Application Signals su un'app di esempio Questa pagina ti è stata utile? - Sì Grazie per averci comunicato che stiamo facendo un buon lavoro! Se hai un momento, ti invitiamo a dirci che cosa abbiamo fatto che ti è piaciuto così possiamo offrirti altri contenuti simili. Questa pagina ti è stata utile? - No Grazie per averci comunicato che questa pagina ha bisogno di essere modificata. Siamo spiacenti di non aver soddisfatto le tue esigenze. Se hai un momento, ti invitiamo a dirci come possiamo migliorare la documentazione. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/ko_kr/AmazonCloudWatch/latest/monitoring/CloudWatch-Agent-configure-related-telemetry.html | 관련 엔터티에 대한 CloudWatch 에이전트 서비스 및 환경 이름 구성 - Amazon CloudWatch 관련 엔터티에 대한 CloudWatch 에이전트 서비스 및 환경 이름 구성 - Amazon CloudWatch 설명서 Amazon CloudWatch 사용자 가이드 관련 엔터티에 대한 CloudWatch 에이전트 서비스 및 환경 이름 구성 CloudWatch 에이전트는 엔터티 데이터와 함께 지표 및 로그를 전송하여 CloudWatch 콘솔의 관련 내용 살펴보기 창을 지원할 수 있습니다. 서비스 이름 또는 환경 이름은 CloudWatch Agent JSON 구성 을 통해 구성할 수 있습니다. 참고 에이전트 구성은 재정의할 수 있습니다. 에이전트가 관련 엔터티에 대해 전송할 데이터를 확인하는 방법에 대한 자세한 내용은 관련 원격 측정과 함께 CloudWatch 에이전트 사용 섹션을 참조하세요. 지표의 경우 에이전트, 지표 또는 플러그인 수준에서 구성할 수 있습니다. 로그의 경우 에이전트, 로그 또는 파일 수준에서 구성할 수 있습니다. 항상 가장 구체적인 구성이 사용됩니다. 예를 들어 구성이 에이전트 수준 및 지표 수준에 있는 경우, 지표는 지표 구성을 사용하며 다른 모든 항목(로그)은 에이전트 구성을 사용합니다. 다음 예제에서는 서비스 이름과 환경 이름을 구성하는 다양한 방법을 보여줍니다. { "agent": { "service.name": "agent-level-service", "deployment.environment": "agent-level-environment" }, "metrics": { "service.name": "metric-level-service", "deployment.environment": "metric-level-environment", "metrics_collected": { "statsd": { "service.name": "statsd-level-service", "deployment.environment": "statsd-level-environment", }, "collectd": { "service.name": "collectdd-level-service", "deployment.environment": "collectd-level-environment", } } }, "logs": { "service.name": "log-level-service", "deployment.environment": "log-level-environment", "logs_collected": { "files": { "collect_list": [ { "file_path": "/opt/aws/amazon-cloudwatch-agent/logs/amazon-cloudwatch-agent.log", "log_group_name": "amazon-cloudwatch-agent.log", "log_stream_name": "amazon-cloudwatch-agent.log", "service.name": "file-level-service", "deployment.environment": "file-level-environment" } ] } } } } javascript가 브라우저에서 비활성화되거나 사용이 불가합니다. AWS 설명서를 사용하려면 Javascript가 활성화되어야 합니다. 지침을 보려면 브라우저의 도움말 페이지를 참조하십시오. 문서 규칙 Amazon EC2 인스턴스에서 Prometheus 지표 수집 설정 및 구성 CloudWatch 에이전트 시작 이 페이지의 내용이 도움이 되었습니까? - 예 칭찬해 주셔서 감사합니다! 잠깐 시간을 내어 좋았던 부분을 알려 주시면 더 열심히 만들어 보겠습니다. 이 페이지의 내용이 도움이 되었습니까? - 아니요 이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/ja_jp/AmazonCloudWatch/latest/monitoring/CloudWatch-Agent-configure-related-telemetry.html | 関連エンティティの CloudWatch エージェントサービスと環境名の設定 - Amazon CloudWatch 関連エンティティの CloudWatch エージェントサービスと環境名の設定 - Amazon CloudWatch ドキュメント Amazon CloudWatch ユーザーガイド 関連エンティティの CloudWatch エージェントサービスと環境名の設定 CloudWatch コンソールの [関連するペインの探索] をサポートするため、CloudWatch エージェントはエンティティデータを持つメトリクスおよびログを送信できます。サービス名または環境名は、 CloudWatch エージェント JSON 設定 で設定できます。 注記 エージェント設定は上書きされる場合があります。エージェントが関連エンティティに送信するデータを決定する方法の詳細については、「 関連するテレメトリで CloudWatch エージェントの使用 」を参照してください。 メトリクスの場合、エージェント、メトリクス、プラグインのレベルで設定できます。ログの場合、エージェント、ログ、ファイルのレベルで設定できます。最も具体的な設定が常に使用されます。例えば、設定がエージェントレベルおよびメトリクスレベルで存在する場合、メトリクスはメトリクス設定を使用し、それ以外のもの (ログ) はエージェント設定を使用します。次の例では、サービス名および環境名を設定するさまざまな方法が示されています。 { "agent": { "service.name": "agent-level-service", "deployment.environment": "agent-level-environment" }, "metrics": { "service.name": "metric-level-service", "deployment.environment": "metric-level-environment", "metrics_collected": { "statsd": { "service.name": "statsd-level-service", "deployment.environment": "statsd-level-environment", }, "collectd": { "service.name": "collectdd-level-service", "deployment.environment": "collectd-level-environment", } } }, "logs": { "service.name": "log-level-service", "deployment.environment": "log-level-environment", "logs_collected": { "files": { "collect_list": [ { "file_path": "/opt/aws/amazon-cloudwatch-agent/logs/amazon-cloudwatch-agent.log", "log_group_name": "amazon-cloudwatch-agent.log", "log_stream_name": "amazon-cloudwatch-agent.log", "service.name": "file-level-service", "deployment.environment": "file-level-environment" } ] } } } } ブラウザで JavaScript が無効になっているか、使用できません。 AWS ドキュメントを使用するには、JavaScript を有効にする必要があります。手順については、使用するブラウザのヘルプページを参照してください。 ドキュメントの表記規則 Amazon EC2 インスタンスでの Prometheus メトリクスコレクションのセットアップと設定 CloudWatch エージェントを起動する このページは役に立ちましたか? - はい ページが役に立ったことをお知らせいただき、ありがとうございます。 お時間がある場合は、何が良かったかお知らせください。今後の参考にさせていただきます。 このページは役に立ちましたか? - いいえ このページは修正が必要なことをお知らせいただき、ありがとうございます。ご期待に沿うことができず申し訳ありません。 お時間がある場合は、ドキュメントを改善する方法についてお知らせください。 | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/it_it/AmazonCloudWatch/latest/monitoring/CloudWatch-Application-Signals-Configure.html | (Facoltativo) Configurazione di Application Signals - Amazon CloudWatch (Facoltativo) Configurazione di Application Signals - Amazon CloudWatch Documentazione Amazon CloudWatch Guida per l’utente Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà. (Facoltativo) Configurazione di Application Signals Questa sezione contiene informazioni sulla configurazione di CloudWatch Application Signals. Argomenti Velocità di campionamento della traccia Abilitazione della correlazione tra traccia e log Abilitazione della correlazione tra metrica e log Gestione di operazioni ad alta cardinalità JavaScript è disabilitato o non è disponibile nel tuo browser. Per usare la documentazione AWS, JavaScript deve essere abilitato. Consulta le pagine della guida del browser per le istruzioni. Convenzioni dei documenti Risoluzione dei problemi relativi all'installazione di Application Signals Velocità di campionamento della traccia Questa pagina ti è stata utile? - Sì Grazie per averci comunicato che stiamo facendo un buon lavoro! Se hai un momento, ti invitiamo a dirci che cosa abbiamo fatto che ti è piaciuto così possiamo offrirti altri contenuti simili. Questa pagina ti è stata utile? - No Grazie per averci comunicato che questa pagina ha bisogno di essere modificata. Siamo spiacenti di non aver soddisfatto le tue esigenze. Se hai un momento, ti invitiamo a dirci come possiamo migliorare la documentazione. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/de_de/AmazonCloudWatch/latest/logs/Subscriptions.html | Echtzeitverarbeitung von Protokolldaten mit Abonnements - CloudWatch Amazon-Protokolle Echtzeitverarbeitung von Protokolldaten mit Abonnements - CloudWatch Amazon-Protokolle Dokumentation Amazon CloudWatch Benutzer-Leitfaden Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich. Echtzeitverarbeitung von Protokolldaten mit Abonnements Sie können Abonnements verwenden, um Zugriff auf einen Echtzeit-Feed mit Protokollereignissen aus CloudWatch Logs zu erhalten und ihn an andere Services wie einen Amazon Kinesis Kinesis-Stream, einen Amazon Data Firehose-Stream oder AWS Lambda zur benutzerdefinierten Verarbeitung, Analyse oder zum Laden auf andere Systeme liefern zu lassen. Wenn Protokollereignisse an den empfangenden Service gesendet werden, werden sie base64-kodiert und im GZIP-Format komprimiert. Sie können die CloudWatch Logs-Zentralisierung auch verwenden, um Protokolldaten aus mehreren Konten und Regionen an einem zentralen Ort zu replizieren. Weitere Informationen finden Sie unter Kontoübergreifende regionsübergreifende Protokollzentralisierung . Wenn Sie Protokollereignisse abonnieren möchten, erstellen Sie die empfangende Ressource (z. B. einen Kinesis-Data-Streams-Datenstrom), an die die Ereignisse gesendet werden sollen. Ein Abonnementfilter definiert das Filtermuster, mit dem gefiltert wird, welche Protokollereignisse an Ihre AWS Ressource übermittelt werden, sowie Informationen darüber, wohin passende Protokollereignisse gesendet werden sollen. Protokollereignisse werden kurz nach der Aufnahme, normalerweise in weniger als drei Minuten, an die empfangende Ressource gesendet. Anmerkung Wenn eine Protokollgruppe mit einem Abonnement die Protokolltransformation verwendet, wird das Filtermuster mit den transformierten Versionen der Protokollereignisse verglichen. Weitere Informationen finden Sie unter Logs während der Aufnahme transformieren . Sie können Abonnements auf Konto- und Protokollgruppenebene erstellen. Jedes Konto kann einen Abonnementfilter auf Kontoebene pro Region haben. Jeder Protokollgruppe können bis zu zwei Abonnementfilter zugeordnet sein. Anmerkung Wenn der Zieldienst einen Fehler zurückgibt, der wiederholt werden kann, z. B. eine Drosselungsausnahme oder eine Serviceausnahme, die erneut versucht werden kann (z. B. HTTP 5xx), wiederholt CloudWatch Logs die Zustellung für bis zu 24 Stunden. CloudWatch Logs versucht nicht, erneut zuzustellen, wenn es sich bei dem Fehler um einen Fehler handelt, der nicht wiederholt werden kann, wie z. B. oder. AccessDeniedException ResourceNotFoundException In diesen Fällen ist der Abonnementfilter für bis zu 10 Minuten deaktiviert, und Logs versucht dann erneut, CloudWatch Protokolle an das Ziel zu senden. Während dieses deaktivierten Zeitraums werden Protokolle übersprungen. CloudWatch Logs erstellt auch CloudWatch Messwerte über die Weiterleitung von Protokollereignissen an Abonnements. Weitere Informationen finden Sie unter Überwachung mit CloudWatch Metriken . Sie können auch ein CloudWatch Logs-Abonnement verwenden, um Protokolldaten nahezu in Echtzeit in einen Amazon OpenSearch Service-Cluster zu streamen. Weitere Informationen finden Sie unter Streaming CloudWatch protokolliert Daten an Amazon OpenSearch Service . Abonnements werden nur für Protokollgruppen der Standard-Protokollklasse unterstützt. Weitere Hinweise zu Protokollklassen finden Sie unter Klassen protokollieren . Anmerkung Abonnementfilter können Ereignisse stapelweise protokollieren, um die Übertragung zu optimieren und die Anzahl der Anrufe an das Ziel zu reduzieren. Die Batchverarbeitung ist nicht garantiert, wird aber nach Möglichkeit verwendet. Für die Batch-Verarbeitung und Analyse von Protokolldaten nach einem Zeitplan sollten Sie die Verwendung von Automatisieren der Protokollanalyse mit geplanten Abfragen . Geplante Abfragen führen CloudWatch Logs Insights-Abfragen automatisch aus und liefern Ergebnisse an Ziele wie Amazon S3 S3-Buckets oder Amazon EventBridge Event Buses. Inhalt Konzepte Abonnementfilter auf Gruppenebene protokollieren Abonnementfilter auf Kontoebene Kontoübergreifende, regionsübergreifende Abonnements Confused-Deputy-Prävention Verhinderung der Rekursion von Protokollen JavaScript ist in Ihrem Browser nicht verfügbar oder deaktiviert. Zur Nutzung der AWS-Dokumentation muss JavaScript aktiviert sein. Weitere Informationen finden auf den Hilfe-Seiten Ihres Browsers. Dokumentkonventionen Löschen eines Metrikfilters Konzepte Hat Ihnen diese Seite geholfen? – Ja Vielen Dank, dass Sie uns mitgeteilt haben, dass wir gute Arbeit geleistet haben! Würden Sie sich einen Moment Zeit nehmen, um uns mitzuteilen, was wir richtig gemacht haben, damit wir noch besser werden? Hat Ihnen diese Seite geholfen? – Nein Vielen Dank, dass Sie uns mitgeteilt haben, dass diese Seite überarbeitet werden muss. Es tut uns Leid, dass wir Ihnen nicht weiterhelfen konnten. Würden Sie sich einen Moment Zeit nehmen, um uns mitzuteilen, wie wir die Dokumentation verbessern können? | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/it_it/AmazonCloudWatch/latest/monitoring/Getting-Started-App-Signals.html | Configurazioni di instrumentazione supportate - Amazon CloudWatch Configurazioni di instrumentazione supportate - Amazon CloudWatch Documentazione Amazon CloudWatch Guida per l’utente Usa AWS Distro per con l'agente OpenTelemetry CloudWatch Usa l'SDK e Collector OpenTelemetry Usa l' AWS X-Ray SDK e il demone Confronto delle funzionalità Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà. Configurazioni di instrumentazione supportate È possibile abilitare CloudWatch Application Signals con diverse configurazioni di strumentazione. Questo argomento descrive ciascuno dei metodi e dei consigli di configurazione in base al metodo scelto. Usa AWS Distro per con l'agente OpenTelemetry CloudWatch L'esperienza di monitoraggio delle prestazioni delle applicazioni (APM) più integrata in assoluto CloudWatch viene fornita tramite AWS Distro for OpenTelemetry (ADOT) SDKs e viene utilizzata con l' CloudWatch agente per raccogliere metriche e tracce delle applicazioni. Questa opzione è ideale se desideri iniziare a usare APM CloudWatch rapidamente e sfruttare anche le integrazioni di out-of-the box con funzionalità come Container Insights e Logs. CloudWatch Per ulteriori informazioni, consulta Enable Application Signals on Amazon EKS Clusters e Enable Application Signals on Amazon EC2, Amazon ECS o Kubernates . Usa l'SDK e Collector OpenTelemetry Questa configurazione è valida per i seguenti casi d'uso: Hai utilizzato Collector come strumentazione per la tua applicazione o il tuo piano OpenTelemetry SDKs e attualmente utilizzi Collector. OpenTelemetry Stai usando linguaggi, come Erlang e Rust, che non sono supportati da AWS Distro for (ADOT). OpenTelemetry Per ulteriori informazioni, consulta con. OpenTelemetry CloudWatch Usa l' AWS X-Ray SDK e il demone Questa opzione è ideale se hai strumentato la tua applicazione utilizzando SDKs X-Ray e non hai SDKs migrato ADOT o. OpenTelemetry SDKs Per ulteriori informazioni, consulta Transaction Search . Confronto delle funzionalità Funzionalità Agente ADOT SDK + CloudWatch Apri Telemetry SDK + Collector OpenTelemetry X-Ray SDKs AWS Support Sì Solo per i dati inviati a AWS Sì Supporto per linguaggio non standard No Sì No Integrazione di Approfondimenti sui container Sì No No Registrazione immediata con CloudWatch Logs Sì No No Metriche di runtime pronte all'uso Sì Sì No Riceve sempre le metriche sul 100% del traffico Sì Solo con una frequenza di campionamento del 100% Solo con una frequenza di campionamento del 100% JavaScript è disabilitato o non è disponibile nel tuo browser. Per usare la documentazione AWS, JavaScript deve essere abilitato. Consulta le pagine della guida del browser per le istruzioni. Convenzioni dei documenti Sistemi supportati Abilitazione di Application Signals in un account Questa pagina ti è stata utile? - Sì Grazie per averci comunicato che stiamo facendo un buon lavoro! Se hai un momento, ti invitiamo a dirci che cosa abbiamo fatto che ti è piaciuto così possiamo offrirti altri contenuti simili. Questa pagina ti è stata utile? - No Grazie per averci comunicato che questa pagina ha bisogno di essere modificata. Siamo spiacenti di non aver soddisfatto le tue esigenze. Se hai un momento, ti invitiamo a dirci come possiamo migliorare la documentazione. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/id_id/AmazonCloudWatch/latest/logs/Subscriptions.html | Pemrosesan data log secara real-time dengan langganan - CloudWatch Log Amazon Pemrosesan data log secara real-time dengan langganan - CloudWatch Log Amazon Dokumentasi Amazon CloudWatch Panduan Pengguna Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris. Pemrosesan data log secara real-time dengan langganan Anda dapat menggunakan langganan untuk mendapatkan akses ke umpan real-time peristiwa CloudWatch log dari Log dan mengirimkannya ke layanan lain seperti aliran Amazon Kinesis, aliran Amazon Data Firehose, AWS Lambda atau untuk pemrosesan, analisis, atau pemuatan kustom ke sistem lain. Ketika peristiwa log dikirim ke layanan penerima, mereka dikodekan base64 dan dikompresi dengan format gzip. Anda juga dapat menggunakan sentralisasi CloudWatch Log untuk mereplikasi data log dari beberapa akun dan wilayah ke lokasi pusat. Untuk informasi selengkapnya, lihat Sentralisasi log lintas wilayah lintas akun . Untuk mulai berlangganan peristiwa log, buat sumber daya penerima, seperti aliran Kinesis Data Streams, tempat acara akan dikirimkan. Filter langganan mendefinisikan pola filter yang akan digunakan untuk memfilter peristiwa log mana yang dikirim ke AWS sumber daya Anda, serta informasi tentang ke mana harus mengirim peristiwa log yang cocok. Peristiwa log dikirim ke sumber daya penerima segera setelah dicerna, biasanya kurang dari tiga menit. catatan Jika grup log dengan langganan menggunakan transformasi log, pola filter dibandingkan dengan versi peristiwa log yang diubah. Untuk informasi selengkapnya, lihat Ubah log selama konsumsi . Anda dapat membuat langganan di tingkat akun dan di tingkat grup log. Setiap akun dapat memiliki satu filter langganan tingkat akun per Wilayah. Setiap grup log dapat memiliki hingga dua filter langganan yang terkait dengan grup. catatan Jika layanan tujuan mengembalikan kesalahan yang dapat dicoba ulang seperti pengecualian pembatasan atau pengecualian layanan yang dapat dicoba ulang (misalnya HTTP 5xx), CloudWatch Log terus mencoba lagi pengiriman hingga 24 jam. CloudWatch Log tidak mencoba mengirimkan kembali jika kesalahannya adalah kesalahan yang tidak dapat dicoba ulang, seperti atau. AccessDeniedException ResourceNotFoundException Dalam kasus ini, filter langganan dinonaktifkan hingga 10 menit, dan kemudian CloudWatch Log mencoba mengirim log ke tujuan. Selama periode dinonaktifkan ini, log dilewati. CloudWatch Log juga menghasilkan CloudWatch metrik tentang penerusan peristiwa log ke langganan. Untuk informasi selengkapnya, lihat Pemantauan dengan CloudWatch metrik . Anda juga dapat menggunakan langganan CloudWatch Log untuk mengalirkan data log dalam waktu dekat ke kluster OpenSearch Layanan Amazon. Untuk informasi selengkapnya, lihat data Streaming CloudWatch Log ke OpenSearch Layanan Amazon . Langganan hanya didukung untuk grup log di kelas log Standar. Untuk informasi selengkapnya tentang kelas log, lihat Kelas log . catatan Filter langganan dapat mengumpulkan peristiwa log untuk mengoptimalkan transmisi dan mengurangi jumlah panggilan yang dilakukan ke tujuan. Batching tidak dijamin tetapi digunakan bila memungkinkan. Untuk pemrosesan batch dan analisis data log sesuai jadwal, pertimbangkan untuk menggunakan Mengotomatiskan analisis log dengan kueri terjadwal . Kueri terjadwal menjalankan kueri CloudWatch Logs Insights secara otomatis dan memberikan hasil ke tujuan seperti bucket Amazon S3 atau bus acara Amazon. EventBridge Daftar Isi Konsep Filter langganan tingkat grup log Filter berlangganan tingkat akun Langganan lintas akun Lintas wilayah Pencegahan Deputi Bingung Pencegahan rekursi log Javascript dinonaktifkan atau tidak tersedia di browser Anda. Untuk menggunakan Dokumentasi AWS, Javascript harus diaktifkan. Lihat halaman Bantuan browser Anda untuk petunjuk. Konvensi Dokumen Menghapus filter metrik Konsep Apakah halaman ini membantu Anda? - Ya Terima kasih telah memberitahukan bahwa hasil pekerjaan kami sudah baik. Jika Anda memiliki waktu luang, beri tahu kami aspek apa saja yang sudah bagus, agar kami dapat menerapkannya secara lebih luas. Apakah halaman ini membantu Anda? - Tidak Terima kasih telah memberi tahu kami bahwa halaman ini perlu ditingkatkan. Maaf karena telah mengecewakan Anda. Jika Anda memiliki waktu luang, beri tahu kami bagaimana dokumentasi ini dapat ditingkatkan. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/it_it/AmazonCloudWatch/latest/monitoring/CloudWatch-RUM.html | CloudWatch RUM - Amazon CloudWatch CloudWatch RUM - Amazon CloudWatch Documentazione Amazon CloudWatch Guida per l’utente Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà. CloudWatch RUM Con CloudWatch RUM, puoi eseguire il monitoraggio reale degli utenti per raccogliere e visualizzare i dati lato client sulle prestazioni delle tue applicazioni web e mobili dalle sessioni utente effettive quasi in tempo reale. Per le applicazioni Web, è possibile analizzare i tempi di caricamento delle pagine, gli errori lato client e il comportamento degli utenti. Per le applicazioni mobili, puoi monitorare i tempi di caricamento dello schermo, i tempi di avvio delle app, gli errori di rete, i crash e i problemi specifici della piattaforma come Android Application Not Responding (ANR) e iOS App Hangs. Quando visualizzi questi dati, puoi vederli tutti aggregati insieme e visualizzare anche le suddivisioni per tipo di dispositivo, sistema operativo e altre caratteristiche dell'utilizzo dell'applicazione. È possibile utilizzare i dati raccolti per identificare ed eseguire rapidamente il debug dei problemi di prestazioni sul lato client. CloudWatch RUM consente di visualizzare le anomalie nelle prestazioni delle applicazioni e di trovare dati di debug pertinenti come messaggi di errore, tracce dello stack e sessioni utente. È inoltre possibile utilizzare RUM per comprendere la gamma di impatti sugli utenti finali, tra cui il numero di utenti, le geolocalizzazioni e gli utenti utilizzati. browsers/devices I dati degli utenti finali raccolti per CloudWatch RUM vengono conservati per 30 giorni e quindi eliminati automaticamente. Se desideri conservare i dati di telemetria RUM per un periodo più lungo, puoi scegliere di far sì che l'app Monitor invii copie della telemetria ai registri del tuo account. CloudWatch Quindi, è possibile modificare il periodo di conservazione per quel gruppo di log. Per usare RUM, si crea un app monitor e si forniscono alcune informazioni. RUM genera un frammento di codice che puoi usare per aggiungere un'iniezione di dipendenza all'applicazione. Lo snippet inserisce il codice client RUM secondo necessità. Il client RUM acquisisce i dati da una percentuale delle sessioni utente dell'applicazione, che vengono visualizzati in una dashboard predefinita. È possibile specificare la percentuale di sessioni utente da cui raccogliere i dati. CloudWatch RUM è integrato con Application Signals , che può scoprire e monitorare i servizi applicativi, i client, i canali Synthetics e le dipendenze dei servizi. Utilizza Application Signals per visualizzare un elenco o una mappa visiva dei tuoi servizi, visualizzare le metriche sanitarie in base agli obiettivi del livello di servizio (SLOs) e approfondire le tracce a raggi X correlate per una risoluzione dei problemi più dettagliata. Per visualizzare le richieste delle pagine client RUM in Application Signals, attiva il tracciamento attivo a raggi X durante la creazione di un app monitor. Per le applicazioni web, puoi anche abilitarlo configurando manualmente il client web RUM . I tuoi client RUM vengono visualizzati nella mappa dell'applicazione connessa ai tuoi servizi e nella pagina dei dettagli del servizio dei servizi che richiamano. I client RUM sono open source. Per ulteriori informazioni, consulta il client web CloudWatch RUM , l'SDK Android AWS Distro for OpenTelemetry (ADOT) e l'SDK AWS Distro for ( OpenTelemetry ADOT ) iOS. Prezzi di RUM Per informazioni sui prezzi, consulta la pagina CloudWatch dei prezzi di Amazon . Disponibilità nelle Regioni CloudWatch RUM è attualmente disponibile nelle seguenti regioni: Stati Uniti orientali (Virginia settentrionale) Stati Uniti orientali (Ohio) Stati Uniti occidentali (California settentrionale) Stati Uniti occidentali (Oregon) Africa (Città del Capo) AWS GovCloud (Stati Uniti orientali) AWS GovCloud (Stati Uniti occidentali) Asia Pacifico (Mumbai) Asia Pacifico (Hyderabad) Asia Pacifico (Melbourne) Asia Pacifico (Osaka) Asia Pacifico (Seoul) Asia Pacifico (Singapore) Asia Pacifico (Sydney) Asia Pacifico (Giacarta) Asia Pacifico (Malesia) Asia Pacifico (Thailandia) Asia Pacifico (Tokyo) Asia Pacifico (Hong Kong) Canada (Centrale) Europa (Francoforte) Europa (Irlanda) Europa (Londra) Europa (Milano) Europa (Parigi) Europa (Spagna) Europa (Stoccolma) Europa (Zurigo) Medio Oriente (Bahrein) Medio Oriente (Emirati Arabi Uniti) Messico (centrale) Sud America (San Paolo) Israele (Tel Aviv) Canada occidentale (Calgary) JavaScript è disabilitato o non è disponibile nel tuo browser. Per usare la documentazione AWS, JavaScript deve essere abilitato. Consulta le pagine della guida del browser per le istruzioni. Convenzioni dei documenti Esecuzione di aggiornamenti sicuri sul canary Configura un'applicazione mobile per utilizzare RUM CloudWatch Questa pagina ti è stata utile? - Sì Grazie per averci comunicato che stiamo facendo un buon lavoro! Se hai un momento, ti invitiamo a dirci che cosa abbiamo fatto che ti è piaciuto così possiamo offrirti altri contenuti simili. Questa pagina ti è stata utile? - No Grazie per averci comunicato che questa pagina ha bisogno di essere modificata. Siamo spiacenti di non aver soddisfatto le tue esigenze. Se hai un momento, ti invitiamo a dirci come possiamo migliorare la documentazione. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/it_it/AmazonCloudWatch/latest/monitoring/Application_Signals_Permissions.html | Autorizzazioni necessarie per Application Signals - Amazon CloudWatch Autorizzazioni necessarie per Application Signals - Amazon CloudWatch Documentazione Amazon CloudWatch Guida per l’utente Autorizzazioni per abilitare e gestire Application Signals Utilizzo di Application Signals Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà. Autorizzazioni necessarie per Application Signals Questa sezione illustra le autorizzazioni necessarie per abilitare, gestire e utilizzare Application Signals. Autorizzazioni per abilitare e gestire Application Signals Per gestire Application Signals, è necessario effettuare l'accesso con le autorizzazioni richieste. Per visualizzare il contenuto della CloudWatchApplicationSignalsFullAccess policy, consulta CloudWatchApplicationSignalsFullAccess . Per abilitare Application Signals su Amazon o architetture personalizzate EC2, consulta Enable Application Signals on Amazon . EC2 Per abilitare e gestire Application Signals su Amazon EKS utilizzando il componente aggiuntivo Amazon CloudWatch Observability EKS , sono necessarie le seguenti autorizzazioni. Importante Queste autorizzazioni includono iam:PassRole con Resource "*” e eks:CreateAddon con Resource “*” . Si tratta di autorizzazioni avanzate e dovresti concederle con cautela. JSON { "Version":"2012-10-17", "Statement": [ { "Sid": "CloudWatchApplicationSignalsEksAddonManagementPermissions", "Effect": "Allow", "Action": [ "eks:AccessKubernetesApi", "eks:CreateAddon", "eks:DescribeAddon", "eks:DescribeAddonConfiguration", "eks:DescribeAddonVersions", "eks:DescribeCluster", "eks:DescribeUpdate", "eks:ListAddons", "eks:ListClusters", "eks:ListUpdates", "iam:ListRoles", "iam:PassRole" ], "Resource": "*", "Condition": { "StringEquals": { "iam:PassedToService": [ "eks.amazonaws.com", "application-signals.cloudwatch.amazonaws.com" ] } } }, { "Sid": "CloudWatchApplicationSignalsEksCloudWatchObservabilityAddonManagementPermissions", "Effect": "Allow", "Action": [ "eks:DeleteAddon", "eks:UpdateAddon" ], "Resource": "arn:aws:eks:*:*:addon/*/amazon-cloudwatch-observability/*" } ] } La dashboard di Application Signals mostra le AWS Service Catalog AppRegistry applicazioni a cui SLOs sei associato. Per visualizzare queste applicazioni nelle pagine degli SLO, è necessario disporre delle autorizzazioni seguenti: JSON { "Version":"2012-10-17", "Statement": [ { "Sid": "CloudWatchApplicationSignalsTaggingReadPermissions", "Effect": "Allow", "Action": "tag:GetResources", "Resource": "*" } ] } Utilizzo di Application Signals Gli operatori di servizi che utilizzano Application Signals per monitorare i servizi SLOs devono accedere a un account con autorizzazioni di sola lettura. Per visualizzare il contenuto della CloudWatchApplicationSignalsReadOnlyAccess politica, vedere CloudWatchApplicationSignalsReadOnlyAccess . Per vedere quali AWS Service Catalog AppRegistry applicazioni SLOs sono associate nella dashboard di Application Signals, devi disporre delle seguenti autorizzazioni: JSON { "Version":"2012-10-17", "Statement": [ { "Sid": "CloudWatchApplicationSignalsTaggingReadPermissions", "Effect": "Allow", "Action": "tag:GetResources", "Resource": "*" } ] } Per verificare se Application Signals su Amazon EKS che utilizza il componente aggiuntivo Amazon CloudWatch Observability EKS è abilitato, devi disporre delle seguenti autorizzazioni: JSON { "Version":"2012-10-17", "Statement": [ { "Sid": "CloudWatchApplicationSignalsResourceExplorerReadPermissions", "Effect": "Allow", "Action": [ "resource-explorer-2:ListIndexes", "resource-explorer-2:Search" ], "Resource": "*" }, { "Sid": "CloudWatchApplicationSignalsResourceExplorerSLRPermissions", "Effect": "Allow", "Action": [ "iam:CreateServiceLinkedRole" ], "Resource": "arn:aws:iam::*:role/aws-service-role/resource-explorer-2.amazonaws.com/AWSServiceRoleForResourceExplorer", "Condition": { "StringEquals": { "iam:AWSServiceName": [ "resource-explorer-2.amazonaws.com" ] } } }, { "Sid": "CloudWatchApplicationSignalsResourceExplorerCreateIndexPermissions", "Effect": "Allow", "Action": [ "resource-explorer-2:CreateIndex" ], "Resource": "arn:aws:resource-explorer-2:*:*:index/*" } ] } JavaScript è disabilitato o non è disponibile nel tuo browser. Per usare la documentazione AWS, JavaScript deve essere abilitato. Consulta le pagine della guida del browser per le istruzioni. Convenzioni dei documenti Segnali applicativi Sistemi supportati Questa pagina ti è stata utile? - Sì Grazie per averci comunicato che stiamo facendo un buon lavoro! Se hai un momento, ti invitiamo a dirci che cosa abbiamo fatto che ti è piaciuto così possiamo offrirti altri contenuti simili. Questa pagina ti è stata utile? - No Grazie per averci comunicato che questa pagina ha bisogno di essere modificata. Siamo spiacenti di non aver soddisfatto le tue esigenze. Se hai un momento, ti invitiamo a dirci come possiamo migliorare la documentazione. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/it_it/AmazonCloudWatch/latest/monitoring/supported-operating-systems.html#x86-64-support | Sistemi operativi supportati - Amazon CloudWatch Sistemi operativi supportati - Amazon CloudWatch Documentazione Amazon CloudWatch Guida per l’utente Architettura x86-64 ARM64 architettura Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà. Sistemi operativi supportati L' CloudWatch agente è supportato sui seguenti sistemi operativi: Architettura x86-64 Amazon Linux 2023 Amazon Linux 2 Versioni di Ubuntu Server 25.04, 24.04 e 22.04 Red Hat Enterprise Linux (RHEL) versioni 10, 9 e 8 Versione Debian 12 SUSE Linux Enterprise Server (SLES) versione 15 Oracle Linux versioni 9 e 8 AlmaLinux versioni 10, 9 e 8 Versioni Rocky Linux 10, 9 e 8 Computer macOS: istanze EC2 M1 Mac1 e computer che eseguono macOS 14 (Sonoma), macOS 13 (Ventura) e macOS 12 (Monterey) Windows Server 2025, Windows Server 2022, Windows Server 2019 e Windows Server 2016 Windows 11 Windows 10 a 64 bit ARM64 architettura Amazon Linux 2023 Amazon Linux 2 Ubuntu Server versione 22.04 Red Hat Enterprise Linux (RHEL) versioni 9 e 8 Versione Debian 12 SUSE Linux Enterprise Server 15 Computer macOS: macOS 14 (Sonoma), macOS 13 (Ventura) e macOS 12 (Monterey) JavaScript è disabilitato o non è disponibile nel tuo browser. Per usare la documentazione AWS, JavaScript deve essere abilitato. Consulta le pagine della guida del browser per le istruzioni. Convenzioni dei documenti CloudWatch agente Prerequisiti Questa pagina ti è stata utile? - Sì Grazie per averci comunicato che stiamo facendo un buon lavoro! Se hai un momento, ti invitiamo a dirci che cosa abbiamo fatto che ti è piaciuto così possiamo offrirti altri contenuti simili. Questa pagina ti è stata utile? - No Grazie per averci comunicato che questa pagina ha bisogno di essere modificata. Siamo spiacenti di non aver soddisfatto le tue esigenze. Se hai un momento, ti invitiamo a dirci come possiamo migliorare la documentazione. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/id_id/AmazonCloudWatch/latest/logs/Subscriptions.html | Pemrosesan data log secara real-time dengan langganan - CloudWatch Log Amazon Pemrosesan data log secara real-time dengan langganan - CloudWatch Log Amazon Dokumentasi Amazon CloudWatch Panduan Pengguna Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris. Pemrosesan data log secara real-time dengan langganan Anda dapat menggunakan langganan untuk mendapatkan akses ke umpan real-time peristiwa CloudWatch log dari Log dan mengirimkannya ke layanan lain seperti aliran Amazon Kinesis, aliran Amazon Data Firehose, AWS Lambda atau untuk pemrosesan, analisis, atau pemuatan kustom ke sistem lain. Ketika peristiwa log dikirim ke layanan penerima, mereka dikodekan base64 dan dikompresi dengan format gzip. Anda juga dapat menggunakan sentralisasi CloudWatch Log untuk mereplikasi data log dari beberapa akun dan wilayah ke lokasi pusat. Untuk informasi selengkapnya, lihat Sentralisasi log lintas wilayah lintas akun . Untuk mulai berlangganan peristiwa log, buat sumber daya penerima, seperti aliran Kinesis Data Streams, tempat acara akan dikirimkan. Filter langganan mendefinisikan pola filter yang akan digunakan untuk memfilter peristiwa log mana yang dikirim ke AWS sumber daya Anda, serta informasi tentang ke mana harus mengirim peristiwa log yang cocok. Peristiwa log dikirim ke sumber daya penerima segera setelah dicerna, biasanya kurang dari tiga menit. catatan Jika grup log dengan langganan menggunakan transformasi log, pola filter dibandingkan dengan versi peristiwa log yang diubah. Untuk informasi selengkapnya, lihat Ubah log selama konsumsi . Anda dapat membuat langganan di tingkat akun dan di tingkat grup log. Setiap akun dapat memiliki satu filter langganan tingkat akun per Wilayah. Setiap grup log dapat memiliki hingga dua filter langganan yang terkait dengan grup. catatan Jika layanan tujuan mengembalikan kesalahan yang dapat dicoba ulang seperti pengecualian pembatasan atau pengecualian layanan yang dapat dicoba ulang (misalnya HTTP 5xx), CloudWatch Log terus mencoba lagi pengiriman hingga 24 jam. CloudWatch Log tidak mencoba mengirimkan kembali jika kesalahannya adalah kesalahan yang tidak dapat dicoba ulang, seperti atau. AccessDeniedException ResourceNotFoundException Dalam kasus ini, filter langganan dinonaktifkan hingga 10 menit, dan kemudian CloudWatch Log mencoba mengirim log ke tujuan. Selama periode dinonaktifkan ini, log dilewati. CloudWatch Log juga menghasilkan CloudWatch metrik tentang penerusan peristiwa log ke langganan. Untuk informasi selengkapnya, lihat Pemantauan dengan CloudWatch metrik . Anda juga dapat menggunakan langganan CloudWatch Log untuk mengalirkan data log dalam waktu dekat ke kluster OpenSearch Layanan Amazon. Untuk informasi selengkapnya, lihat data Streaming CloudWatch Log ke OpenSearch Layanan Amazon . Langganan hanya didukung untuk grup log di kelas log Standar. Untuk informasi selengkapnya tentang kelas log, lihat Kelas log . catatan Filter langganan dapat mengumpulkan peristiwa log untuk mengoptimalkan transmisi dan mengurangi jumlah panggilan yang dilakukan ke tujuan. Batching tidak dijamin tetapi digunakan bila memungkinkan. Untuk pemrosesan batch dan analisis data log sesuai jadwal, pertimbangkan untuk menggunakan Mengotomatiskan analisis log dengan kueri terjadwal . Kueri terjadwal menjalankan kueri CloudWatch Logs Insights secara otomatis dan memberikan hasil ke tujuan seperti bucket Amazon S3 atau bus acara Amazon. EventBridge Daftar Isi Konsep Filter langganan tingkat grup log Filter berlangganan tingkat akun Langganan lintas akun Lintas wilayah Pencegahan Deputi Bingung Pencegahan rekursi log Javascript dinonaktifkan atau tidak tersedia di browser Anda. Untuk menggunakan Dokumentasi AWS, Javascript harus diaktifkan. Lihat halaman Bantuan browser Anda untuk petunjuk. Konvensi Dokumen Menghapus filter metrik Konsep Apakah halaman ini membantu Anda? - Ya Terima kasih telah memberitahukan bahwa hasil pekerjaan kami sudah baik. Jika Anda memiliki waktu luang, beri tahu kami aspek apa saja yang sudah bagus, agar kami dapat menerapkannya secara lebih luas. Apakah halaman ini membantu Anda? - Tidak Terima kasih telah memberi tahu kami bahwa halaman ini perlu ditingkatkan. Maaf karena telah mengecewakan Anda. Jika Anda memiliki waktu luang, beri tahu kami bagaimana dokumentasi ini dapat ditingkatkan. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/zh_cn/AmazonCloudWatch/latest/monitoring/CloudWatch-Application-Monitoring-Sections.html | Application Signals - Amazon CloudWatch Application Signals - Amazon CloudWatch 文档 Amazon CloudWatch 用户指南 Application Signals 使用 CloudWatch Application Signals 自动检测 AWS 上的应用程序,以监控当前应用程序的运行状况,并根据业务目标跟踪长期应用程序性能。Application Signals 为您提供统一的、以应用程序为中心的应用程序、服务和依赖项视图,帮助您监控应用程序的运行状况并对其进行分类。 启用 Application Signals 以自动从您的应用程序收集指标和跟踪,并显示关键指标,例如调用量、可用性、延迟、故障和错误。无需编写自定义代码或创建控制面板,即可快速查看当前的运行状况并对其进行分类,以及您的应用程序是否实现了其长期性能目标。 使用 Application Signals 创建并监控 服务级别目标(SLO) 。轻松创建并跟踪与 CloudWatch 指标相关的 SLO 的状态,包括 Application Signals 收集的新标准应用程序指标。在服务列表和拓扑图中查看并跟踪应用程序服务的 服务级别指标(SLI) 状态。创建警报以跟踪您的 SLO,并跟踪 Application Signals 收集的新标准应用程序指标。 查看 Application Signals 自动发现的应用程序拓扑图,该图可以直观地呈现您的应用程序、依赖项及其连接。 Application Signals 可与 CloudWatch RUM 、 CloudWatch Synthetics 金丝雀 、 AWS Service Catalog AppRegistry 和 Amazon EC2 Auto Scaling 结合使用,在控制面板和地图中显示您的客户端页面、Synthetics 金丝雀和应用程序名称。 主题 Application Signals 所需权限 支持的系统 支持的检测设置 在账户中启用 Application Signals (可选)使用示例应用程序试用 Application Signals 在 Amazon EKS 集群上启用应用程序 在 Amazon EC2 上启用应用程序 在 Amazon ECS 上启用应用程序 在 Kubernetes 上启用应用程序 在 Lambda 上启用应用程序 对 Application Signals 安装进行问题排查 (可选)配置 Application Signals 使用 Application Signals 监控应用程序的运行状况 Application Signals 收集的指标 自定义指标与 Application Signals 使用 Application Signals 进行日常应用程序监控 在 CloudWatch 控制台中使用 Application Signals,作为日常应用程序监控的一部分: 如果您已经为服务创建了服务级别目标(SLO),请从 服务级别目标(SLO) 页面开始。这让您可以即时查看最关键的服务、操作和依赖项的运行状况。选择 SLO 的服务、操作或依赖项名称,打开 服务详细信息 页面,在排查问题时查看详细的服务信息。 打开 服务 页面以查看所有服务的摘要,并快速查看故障率或延迟最高的服务。如果您创建了 SLO,请查看“服务”表格以了解哪些服务具有运行不正常的服务级别指标(SLI)。如果特定服务处于不正常状态,请选择该服务以打开 服务详细信息 页面,查看服务操作、依赖项、Synthetics Canary 和客户端请求。在图表中选择一个点以查看相关轨迹,以进行问题排查并确定操作问题的根本原因。 如果已部署新服务或依赖项已更改,请打开 服务地图 以检查您的应用程序拓扑。查看您的应用程序地图,其中显示了客户端、Synthetics Canary、服务和依赖项之间的关系。快速查看 SLI 运行状况,查看调用量、故障率和延迟等关键指标,并深入查看 服务详细信息 页面中的更多详细信息。 使用 Application Signals 会产生费用。有关 CloudWatch 定价的信息,请参阅 Amazon CloudWatch 定价 。 注意 无需启用 Application Signals 即可使用 CloudWatch Synthetics、CloudWatch RUM 或 CloudWatch Evidently。但是,当您将这些功能一起使用时,Synthetics 和 CloudWatch RUM 与 Application Signals 结合使用可以带来优势。 Application Signals 跨账户 借助 Application Signals 跨账户可观测性,您可以在一个区域内跨多个 AWS 账户监控应用程序并排查问题。 您可以使用 Amazon CloudWatch Observability Access Manager 将一个或多个 AWS 账户设置为监控账户。通过在监控账户中创建接收器,监控账户将能够查看源账户中的数据。您可以使用接收器来创建从源账户指向监控账户的链接。有关更多信息,请参阅 CloudWatch 跨账户可观测性 。 所需的 资源 为使 Application Signals 跨账户可观测性正常运行,请务必通过 CloudWatch Observability Access Manager 共享以下遥测类型。 Application Signals 服务和服务级别目标(SLO) Amazon CloudWatch 中的指标 在 Amazon CloudWatch Logs 中记录组 AWS X-Ray 中的跟踪记录 支持的语言和架构 Application Signals 支持 Java、Python、Node.js 和 .NET 应用程序。 Application Signals 在 Amazon EKS、Amazon ECS 和 Amazon EC2 上受到支持并经过测试。在 Amazon EKS 集群上,Application Signals 会自动发现您的服务和集群的名称。在其他架构上,当您为 Application Signals 启用这些服务时,必须提供服务和环境的名称。 在 Amazon EC2 上启用 Application Signals 的指令应适用于任何支持 CloudWatch 代理和 AWS Distro for OpenTelemetry 的架构。但是,除了 Amazon ECS 和 Amazon EC2 之外,这些指令尚未在其他架构上进行过测试。 支持的区域 除了加拿大西部(卡尔加里)以外的所有商业区域都支持 Application Signals。 Javascript 在您的浏览器中被禁用或不可用。 要使用 Amazon Web Services 文档,必须启用 Javascript。请参阅浏览器的帮助页面以了解相关说明。 文档惯例 应用程序性能监控(APM) Application Signals 所需权限 此页面对您有帮助吗?- 是 感谢您对我们工作的肯定! 如果不耽误您的时间,请告诉我们做得好的地方,让我们做得更好。 此页面对您有帮助吗?- 否 感谢您告诉我们本页内容还需要完善。很抱歉让您失望了。 如果不耽误您的时间,请告诉我们如何改进文档。 | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/it_it/AmazonCloudWatch/latest/monitoring/CloudWatch-Application-Signals-Enable-ECSMain.html | Abilitazione delle applicazioni in Amazon ECS - Amazon CloudWatch Abilitazione delle applicazioni in Amazon ECS - Amazon CloudWatch Documentazione Amazon CloudWatch Guida per l’utente Usa una configurazione personalizzata per abilitare Application Signals su Amazon ECS Abilita i segnali applicativi su Amazon ECS utilizzando Model Context Protocol (MCP) Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà. Abilitazione delle applicazioni in Amazon ECS Abilita CloudWatch Application Signals su Amazon ECS utilizzando i passaggi di configurazione personalizzati descritti in questa sezione. Per le applicazioni in esecuzione su Amazon ECS, puoi installare e configurare autonomamente l' CloudWatch agente e AWS Distro. OpenTelemetry Su queste architetture abilitate con una configurazione personalizzata di Application Signals, Application Signals non rileva automaticamente i nomi dei tuoi servizi o dei cluster o host su cui vengono eseguiti. Devi specificare questi nomi durante la configurazione personalizzata e i nomi specificati sono quelli visualizzati nei pannelli di controllo di Application Signals. Usa una configurazione personalizzata per abilitare Application Signals su Amazon ECS Utilizza queste istruzioni di configurazione personalizzate per effettuare l'onboarding delle tue applicazioni su Amazon ECS su CloudWatch Application Signals. Installi e configuri tu stesso l' CloudWatch agente e AWS Distro. OpenTelemetry Esistono due metodi per implementare Application Signals su Amazon ECS. Scegli quello più adatto al tuo ambiente. Implementazione utilizzando la strategia sidecar — Si aggiunge un contenitore CloudWatch secondario per agenti a ciascuna definizione di attività nel cluster. Vantaggi: Supporta sia i tipi di avvio ec2 sia quelli Fargate . È sempre possibile utilizzare localhost come indirizzo IP quando si impostano le variabili di ambiente. Svantaggi: È necessario configurare il contenitore CloudWatch Agent Sidecar per ogni attività di servizio eseguita nel cluster. Solo la modalità di rete awsvpc è supportata. Implementazione utilizzando la strategia daemon — Aggiungi un'attività CloudWatch agente solo una volta nel cluster e la strategia di pianificazione dei daemon di Amazon ECS la implementa secondo necessità. Garantisce che ogni istanza riceva continuamente tracce e metriche, fornendo una visibilità centralizzata senza la necessità che l'agente venga eseguito come sidecar alla definizione di ogni attività applicativa. Vantaggi: È necessario configurare il servizio daemon per l'agente solo una volta nel CloudWatch cluster. Svantaggi: Non supporta il tipo di avvio Fargate. Se si utilizza la modalità di rete awsvpc o bridge , è necessario specificare manualmente l'indirizzo IP privato di ogni istanza del container nelle variabili di ambiente. Con entrambi i metodi, Application Signals non rileva automaticamente i nomi dei tuoi servizi. Devi specificare i nomi dei servizi durante la configurazione personalizzata; i nomi specificati saranno quelli visualizzati nei pannelli di controllo di Application Signals. Abilita i segnali applicativi su Amazon ECS utilizzando Model Context Protocol (MCP) Puoi utilizzare il server CloudWatch Application Signals Model Context Protocol (MCP) per abilitare Application Signals sui tuoi cluster Amazon ECS tramite interazioni IA conversazionali. Ciò fornisce un'interfaccia in linguaggio naturale per configurare il monitoraggio di Application Signals. Il server MCP automatizza il processo di abilitazione comprendendo i requisiti e generando la configurazione appropriata. Invece di seguire manualmente i passaggi della console o scrivere codice CDK, puoi semplicemente descrivere cosa vuoi abilitare. Prerequisiti Prima di utilizzare il server MCP per abilitare Application Signals, assicuratevi di avere: Un ambiente di sviluppo che supporti MCP (come Kiro, Claude Desktop, VSCode con estensioni MCP o altri strumenti compatibili con MCP) Il server MCP CloudWatch Application Signals configurato nel tuo IDE. Per istruzioni di configurazione dettagliate, consultate la documentazione del server MCP di CloudWatch Application Signals . Utilizzo del server MCP Dopo aver configurato il server MCP CloudWatch Application Signals nell'IDE, puoi richiedere indicazioni sull'abilitazione utilizzando istruzioni in linguaggio naturale. Sebbene l'assistente di codifica sia in grado di dedurre il contesto dalla struttura del progetto, fornire dettagli specifici nelle istruzioni aiuta a garantire una guida più accurata e pertinente. Includi informazioni come il linguaggio dell'applicazione, il nome del cluster Amazon ECS, la strategia di distribuzione (sidecar o daemon) e i percorsi assoluti verso l'infrastruttura e il codice dell'applicazione. Istruzioni sulle migliori pratiche (specifiche e complete): "Enable Application Signals for my Python service running on ECS. My app code is in /home/user/flask-api and IaC is in /home/user/flask-api/terraform" "I want to add observability to my Node.js application on ECS cluster 'production-cluster' using sidecar deployment. The application code is at /Users/dev/checkout-service and the task definitions are at /Users/dev/checkout-service/ecs" "Help me instrument my Java Spring Boot application on ECS with Application Signals using daemon strategy. Application directory: /opt/apps/payment-api CDK infrastructure: /opt/apps/payment-api/cdk" Suggerimenti meno efficaci: "Enable monitoring for my app" → Missing: platform, language, paths "Enable Application Signals. My code is in ./src and IaC is in ./infrastructure" → Problem: Relative paths instead of absolute paths "Enable Application Signals for my ECS service at /home/user/myapp" → Missing: programming language, deployment strategy Modello rapido: "Enable Application Signals for my [LANGUAGE] service on ECS. Deployment strategy: [sidecar/daemon] App code: [ABSOLUTE_PATH_TO_APP] IaC code: [ABSOLUTE_PATH_TO_IAC]" Vantaggi dell'utilizzo del server MCP L'utilizzo del server MCP CloudWatch Application Signals offre diversi vantaggi: Interfaccia in linguaggio naturale: descrivi cosa vuoi abilitare senza memorizzare comandi o sintassi di configurazione Guida sensibile al contesto: il server MCP comprende l'ambiente specifico dell'utente e fornisce consigli personalizzati Errori ridotti: la generazione automatizzata della configurazione riduce al minimo gli errori di digitazione manuale Configurazione più rapida: passa più rapidamente dall'intenzione all'implementazione Strumento di apprendimento: guarda le configurazioni generate e scopri come funziona Application Signals Per ulteriori informazioni sulla configurazione e l'utilizzo del server MCP CloudWatch Application Signals, consultate la documentazione del server MCP . JavaScript è disabilitato o non è disponibile nel tuo browser. Per usare la documentazione AWS, JavaScript deve essere abilitato. Consulta le pagine della guida del browser per le istruzioni. Convenzioni dei documenti Abilita le tue applicazioni su Amazon EC2 Implementazione utilizzando la strategia sidecar Questa pagina ti è stata utile? - Sì Grazie per averci comunicato che stiamo facendo un buon lavoro! Se hai un momento, ti invitiamo a dirci che cosa abbiamo fatto che ti è piaciuto così possiamo offrirti altri contenuti simili. Questa pagina ti è stata utile? - No Grazie per averci comunicato che questa pagina ha bisogno di essere modificata. Siamo spiacenti di non aver soddisfatto le tue esigenze. Se hai un momento, ti invitiamo a dirci come possiamo migliorare la documentazione. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/ko_kr/AmazonCloudWatch/latest/logs/LogsAnomalyDetection.html | 로그 이상 탐지 - Amazon CloudWatch Logs 로그 이상 탐지 - Amazon CloudWatch Logs 설명서 Amazon CloudWatch 사용자 안내서 이상 및 패턴의 심각도 및 우선순위 이상 가시성 시간 이상 항목 억제 자주 묻는 질문(FAQ) 기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다. 로그 이상 탐지 로그 데이터에서 이상 징후를 감지할 수 있는 방법은 지속적인 모니터링을 위해 로그 이상 탐지기 를 생성하는 것, 그리고 온디맨드 분석을 위해 CloudWatch Log Insights 쿼리에서 anomaly detection 명령을 사용하는 것입니다. 로그 이상 탐지기는 로그 그룹에 수집된 로그 이벤트를 스캔하여 로그 데이터에서 이상을 자동으로 찾습니다. 이상 탐지는 기계 학습 및 패턴 인식을 사용하여 일반적인 로그 콘텐츠의 기준을 설정합니다. 온디맨드 분석의 경우 CloudWatch Logs Insights 쿼리에서 anomaly detection 명령을 사용하여 시계열 데이터의 비정상적인 패턴을 식별할 수 있습니다. 쿼리 기반 이상 탐지에 대한 자세한 내용은 CloudWatch Logs Insights에서 이상 탐지 사용 을 참조하세요. 로그 그룹 이상 탐지기를 생성하면 이상 탐지기는 로그 그룹의 지난 2주 동안의 로그 이벤트를 사용하여 훈련됩니다. 훈련 기간은 최대 15분이 소요될 수 있습니다. 훈련이 완료되면 들어오는 로그를 분석하여 이상을 식별하기 시작하고, 검사할 수 있도록 CloudWatch Logs 콘솔에 이상이 표시됩니다. CloudWatch Logs 패턴 인식은 로그에서 정적 및 동적 콘텐츠를 식별하여 로그 패턴을 추출합니다. 많은 수의 로그 이벤트를 몇 가지 패턴으로 압축할 수 있기 때문에 패턴은 큰 로그 집합을 분석하는 데 유용합니다. 예를 들어, 다음 세 가지 로그 이벤트 샘플을 참조하세요. 2023-01-01 19:00:01 [INFO] Calling DynamoDB to store for ResourceID: 12342342k124-12345 2023-01-01 19:00:02 [INFO] Calling DynamoDB to store for ResourceID: 324892398123-1234R 2023-01-01 19:00:03 [INFO] Calling DynamoDB to store for ResourceID: 3ff231242342-12345 이전 샘플에서 세 로그 이벤트는 모두 한 가지 패턴을 따릅니다. <Date-1> <Time-2> [INFO] Calling DynamoDB to store for resource id <ResourceID-3> 패턴 내의 필드를 토큰 이라고 합니다. 요청 ID나 타임스탬프 같이 패턴 내에서 달라지는 필드를 동적 토큰 이라고 합니다. 동적 토큰에 대해 발견된 각 값을 토큰 값 이라고 합니다. CloudWatch Logs는 동적 토큰이 나타내는 데이터 유형을 추론할 수 있는 경우 토큰을 < string - number > 으로 표시합니다. string 은 토큰이 나타내는 데이터 유형에 대한 설명입니다. number 는 다른 동적 토큰과 비교하여 패턴에서 이 토큰이 나타나는 위치를 보여줍니다. CloudWatch Logs는 문자열을 포함하는 로그 이벤트의 콘텐츠 분석을 기반으로 이름의 문자열 부분을 할당합니다. CloudWatch Logs는 동적 토큰이 나타내는 데이터 유형을 추론할 수 없는 경우 토큰을 <Token- number >로 표시하며, number 는 패턴에서 이 토큰이 나타나는 위치를 다른 동적 토큰과 비교하여 나타냅니다. 동적 토큰의 일반적인 예로는 오류 코드, IP 주소, 타임스탬프, 요청 ID가 있습니다. 로그 이상 탐지는 이러한 패턴을 사용하여 이상을 찾습니다. 이상 탐지기 모델 훈련 기간이 지나면 알려진 추세와 비교하여 로그가 평가됩니다. 이상 탐지기는 상당한 변동을 이상으로 플래그 지정합니다. 이 장에서는 이상 탐지를 활성화하고, 이상을 보고, 로그 이상 탐지기를 위한 경보를 생성하고, 로그 이상 탐지기가 게시하는 지표를 생성하는 방법을 설명합니다. 또한 이상 탐지기와 그 결과를 암호화하는 방법도 설명합니다 AWS Key Management Service. 로그 이상 탐지기 생성에는 요금이 발생하지 않습니다. 이상 및 패턴의 심각도 및 우선순위 로그 이상 탐지기가 발견한 각 이상에는 우선순위 가 할당됩니다. 발견된 각 패턴에는 심각도 가 할당됩니다. 우선순위 는 자동으로 계산되며, 패턴의 심각도 수준 및 예상 값과의 편차 양을 기반으로 합니다. 예를 들어, 특정 토큰 값이 갑자기 500% 증가하는 경우 심각도가 NONE 이더라도 해당 이상을 HIGH 우선순위로 지정할 수 있습니다. 심각도 는 FATAL , ERROR , WARN 등 패턴에서 발견된 키워드만을 기반으로 합니다. 이러한 키워드를 찾을 수 없는 경우 패턴의 심각도는 NONE 으로 표시됩니다. 이상 가시성 시간 이상 탐지기를 생성할 때 이상 탐지기의 최대 가시성 기간을 지정합니다. 이 기간은 콘솔에 이상이 표시되고 ListAnomalies API 작업에 의해 이상이 반환되는 일수입니다. 이 기간이 경과한 후에도 계속 발생하는 이상은 자동으로 일반 동작으로 수락되고 이상 탐지기 모델은 이를 이상 현상으로 더 이상 플래그 지정하지 않습니다. 이상 탐지기를 생성할 때 가시성 시간을 조정하지 않으면 21일이 기본값으로 사용됩니다. 이상 항목 억제 이상이 발견된 후 일시적으로 또는 영구적으로 이를 억제하도록 선택할 수 있습니다. 이상 항목 억제를 선택하면 이상 탐지기는 지정한 시간 동안 이를 이상으로 플래그 지정하지 않습니다. 이상을 억제할 때 해당 특정 이상만 억제하거나 이상이 발견된 패턴과 관련된 모든 이상을 억제하도록 선택할 수 있습니다. 콘솔에서는 여전히 억제된 이상을 볼 수 있습니다. 이상 억제를 중지하도록 선택할 수도 있습니다. 자주 묻는 질문(FAQ) 내 데이터를 AWS 사용하여 AWS 사용 또는 다른 고객을 위한 기계 학습 알고리즘을 훈련하나요? 아니요. 훈련에서 생성된 이상 탐지 모델은 로그 그룹의 로그 이벤트를 기반으로 하며 해당 로그 그룹 및 해당 AWS 계정 내에서만 사용됩니다. 이상 탐지에 적합한 로그 이벤트 유형은 무엇입니까? 로그 이상 탐지가 적합한 로그 이벤트 유형 은 애플리케이션 로그 및 대부분의 로그 항목이 일반적인 패턴에 맞는 기타 유형의 로그입니다. 로그 수준 또는 INFO , ERROR , DEBUG 같은 심각도 키워드가 포함된 이벤트가 있는 로그 그룹은 로그 이상 탐지에 특히 적합합니다. 로그 이상 탐지가 적합하지 않은 로그 이벤트 는 CloudTrail Logs 같이 JSON 구조가 매우 긴 로그 이벤트입니다. 패턴 분석은 로그 줄의 처음 1,500자까지만 분석하므로 해당 한도를 넘는 모든 문자는 건너뜁니다. VPC 흐름 로그 같은 감사 또는 액세스 로그도 이상 탐지 성공률이 떨어집니다. 이상 탐지는 애플리케이션 문제를 찾기 위한 것이므로 네트워크 또는 액세스 이상에는 적합하지 않을 수 있습니다. CloudWatch Logs 패턴 분석을 사용하여 그룹의 로그 이벤트에서 패턴의 수를 찾으면 이상 탐지기가 특정 로그 그룹에 적합한지 여부를 결정하는 데 도움이 됩니다. 패턴의 수가 약 300개 이하인 경우 이상 탐지가 잘 작동할 수 있습니다. 패턴 분석에 대한 자세한 내용은 패턴 분석 을 참조하세요. 무엇이 이상으로 플래그 지정되나요? 다음과 같은 경우 로그 이벤트가 이상으로 플래그 지정될 수 있습니다. 로그 그룹에서 이전에 보이지 않던 패턴이 있는 로그 이벤트. 알려진 패턴의 상당한 변형. 일반적 값의 이산 집합이 있는 동적 토큰의 새 값. 동적 토큰의 특정 값 발생 횟수의 큰 변화. 위의 모든 항목이 이상으로 플래그 지정될 수 있지만, 모두 다 애플리케이션이 제대로 작동하지 않는다는 의미는 아닙니다. 예를 들어, 평소보다 많은 수의 200 성공 값은 이상으로 플래그가 지정될 수 있습니다. 이와 같은 경우 문제를 나타내지 않는 이러한 이상을 억제하는 것이 좋습니다. 마스킹 처리되는 민감한 데이터는 어떻게 되나요? 로그 이벤트에서 민감한 데이터로 마스킹 처리된 부분은 이상을 스캔하지 않습니다. 자세한 내용은 Help protect sensitive log data with masking 을 참조하세요. javascript가 브라우저에서 비활성화되거나 사용이 불가합니다. AWS 설명서를 사용하려면 Javascript가 활성화되어야 합니다. 지침을 보려면 브라우저의 도움말 페이지를 참조하십시오. 문서 규칙 예약된 쿼리 문제 해결 CloudWatch Logs Insights에서 이상 탐지 사용 이 페이지의 내용이 도움이 되었습니까? - 예 칭찬해 주셔서 감사합니다! 잠깐 시간을 내어 좋았던 부분을 알려 주시면 더 열심히 만들어 보겠습니다. 이 페이지의 내용이 도움이 되었습니까? - 아니요 이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/pt_br/AmazonCloudWatch/latest/logs/LogsAnomalyDetection.html | Detecção de anomalias de log - CloudWatch Registros da Amazon Detecção de anomalias de log - CloudWatch Registros da Amazon Documentação Amazon CloudWatch Manual do usuário Gravidade e prioridade de anomalias e padrões Tempo de visibilidade das anomalias Supressão de uma anomalia Perguntas frequentes As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá. Detecção de anomalias de log Você pode detectar anomalias em seus dados de registro de duas maneiras: criando um detector de anomalias de log para monitoramento contínuo ou usando o anomaly detection comando nas consultas do CloudWatch Logs Insights para análise sob demanda. Um detector de anomalias de log verifica os eventos de logs ingeridos no grupo de logs e encontra anomalias nos dados de log automaticamente. A detecção de anomalias usa machine learning e reconhecimento de padrões para estabelecer linhas de base de conteúdo típico dos logs. Para análise sob demanda, você pode usar o anomaly detection comando nas consultas do CloudWatch Logs Insights para identificar padrões incomuns em dados de séries temporais. Para obter mais informações sobre detecção de anomalias baseada em consulta, consulte Usando a detecção de anomalias no CloudWatch Logs Insights . Depois que você cria um detector de anomalias para um grupo de logs, ele é treinado usando as últimas duas semanas de eventos de log do grupo de logs para treinamento. O período de treinamento pode levar até 15 minutos. Depois que o treinamento é concluído, ele começa a analisar os registros recebidos para identificar anomalias, e as anomalias são exibidas no console de CloudWatch registros para você examinar. CloudWatch O reconhecimento de padrões de registros extrai padrões de registros identificando conteúdo estático e dinâmico em seus registros. Os padrões são úteis para analisar grandes conjuntos de logs porque um grande número de eventos de log geralmente pode ser resumido a apenas alguns padrões. Por exemplo, veja o exemplo de três eventos de log a seguir. 2023-01-01 19:00:01 [INFO] Calling DynamoDB to store for ResourceID: 12342342k124-12345 2023-01-01 19:00:02 [INFO] Calling DynamoDB to store for ResourceID: 324892398123-1234R 2023-01-01 19:00:03 [INFO] Calling DynamoDB to store for ResourceID: 3ff231242342-12345 No exemplo anterior, todos os três eventos de log seguem um único padrão: <Date-1> <Time-2> [INFO] Calling DynamoDB to store for resource id <ResourceID-3> Os campos dentro de um padrão são chamados de tokens . Os campos que variam dentro de um padrão, como um ID de solicitação ou um timestamp, são chamados de tokens dinâmicos . Cada valor diferente encontrado para um token dinâmico é chamado de valor de token . Se o CloudWatch Logs puder inferir o tipo de dados que um token dinâmico representa, ele exibirá o token como < string - number > . string É uma descrição do tipo de dados que o token representa. number Mostra onde esse token aparece no padrão, em comparação com os outros tokens dinâmicos. CloudWatch O Logs atribui a parte da string do nome com base na análise do conteúdo dos eventos de log que a contêm. Se o CloudWatch Logs não conseguir inferir o tipo de dados que um token dinâmico representa, ele exibe o token como <Token- number > e number indica onde esse token aparece no padrão, em comparação com os outros tokens dinâmicos. Exemplos comuns de tokens dinâmicos incluem códigos de erro, endereços IP, registros de data e hora e solicitações. IDs A detecção de anomalias de log usa esses padrões para encontrar anomalias. Após o período de treinamento de modelo do detector de anomalias, os logs são avaliados em relação às tendências conhecidas. O detector de anomalias sinaliza flutuações significativas como anomalias. Este capítulo descreve como habilitar a detecção de anomalias, visualizar anomalias, criar alarmes para detectores de anomalias de log e as métricas que os detectores de anomalias de log publicam. Também descreve como criptografar o detector de anomalias e seus resultados com. AWS Key Management Service A criação de detectores de anomalias de log não é cobrada. Gravidade e prioridade de anomalias e padrões A cada anomalia encontrada por um detector de anomalias de log é atribuída uma prioridade . A cada padrão encontrado é atribuída uma gravidade . A prioridade é calculada automaticamente com base no nível de gravidade do padrão e na quantidade de desvio dos valores esperados. Por exemplo, se um determinado valor de token aumentar repentinamente em 500%, essa anomalia pode ser designada como tendo prioridade HIGH , mesmo que sua gravidade seja NONE . A gravidade é baseada apenas nas palavras-chave encontradas nos padrões, como FATAL , ERROR e WARN . Se nenhuma dessas palavras-chave for encontrada, a gravidade de um padrão será marcada como NONE . Tempo de visibilidade das anomalias Ao criar um detector de anomalias, você especifica o período máximo de visibilidade das anomalias para ele. Esse é o número de dias em que a anomalia é exibida no console e é retornada pela operação da ListAnomalies API. Depois de decorrido esse tempo para uma anomalia, se ela continuar ocorrendo, será automaticamente aceita como um comportamento normal e o modelo do detector de anomalias não a sinalizará mais como uma anomalia. Se você não ajustar o tempo de visibilidade quando criar um detector de anomalias, o padrão de 21 dias será usado. Supressão de uma anomalia Depois que uma anomalia é encontrada, você pode optar por suprimi-la temporária ou permanentemente. A supressão de uma anomalia faz com que o detector de anomalias pare de sinalizar essa ocorrência como uma anomalia durante o tempo que você especificar. Ao suprimir uma anomalia, você pode optar por suprimir apenas essa anomalia específica ou todas as anomalias relacionadas ao padrão no qual a anomalia foi encontrada. Você continua podendo visualizar as anomalias suprimidas no console. Você também pode escolher deixar de suprimi-las. Perguntas frequentes AWS Usa meus dados para treinar algoritmos de aprendizado de máquina para AWS uso ou para outros clientes? Não. O modelo de detecção de anomalias criado pelo treinamento é baseado nos eventos de registro em um grupo de registros e é usado somente nesse grupo de registros e nessa AWS conta. Que tipos de eventos de log funcionam bem com a detecção de anomalias? A detecção de anomalias de log é adequada para: logs de aplicações e outros tipos de log em que a maioria das entradas de log se enquadra nos padrões típicos. Grupos de logs com eventos que contêm um nível de log ou palavras-chave de gravidade, como INFO , ERROR e DEBUG , são especialmente adequados para a detecção de anomalias de log. A detecção de anomalias de log não é adequada para: Registrar eventos com estruturas JSON extremamente longas, como CloudTrail Logs. A análise de padrões só analisa os primeiros 1.500 caracteres de uma linha de log, portanto, todos os caracteres além desse limite são ignorados. Logs de auditoria ou acesso, como logs de fluxo de VPC, também terão menos sucesso com a detecção de anomalias. A detecção de anomalias serve para encontrar problemas de aplicações, assim sendo, pode não ser adequada para anomalias de rede ou acesso. Para ajudá-lo a determinar se um detector de anomalias é adequado para um determinado grupo de CloudWatch registros, use a análise de padrões de registros para encontrar o número de padrões nos eventos de registro no grupo. Se a quantidade de padrões não passar de cerca de 300, a detecção de anomalias poderá funcionar bem. Para obter mais informações sobre análise de padrões, consulte Análise de padrões . O que é sinalizado como anomalia? As seguintes ocorrências podem fazer um evento de log ser sinalizado como uma anomalia: Um evento de log com um padrão nunca visto antes no grupo de logs. Uma variação significativa de um padrão conhecido. Um novo valor para um token dinâmico que tem um conjunto discreto de valores usuais. Uma grande alteração no número de ocorrências de um valor para um token dinâmico. Embora todos os itens anteriores possam estar sinalizados como anomalias, nem todos significam que a aplicação está funcionando mal. Por exemplo, higher-than-usual vários valores de 200 sucesso podem ser sinalizados como uma anomalia. Em casos como esse, você pode considerar suprimir essas anomalias que não indicam problemas. O que acontece com os dados confidenciais que estão sendo mascarados? Todas as partes de eventos de log que são mascaradas como dados confidenciais não são varridas para detectar anomalias. Para obter mais informações, consulte Help protect sensitive log data with masking . O Javascript está desativado ou não está disponível no seu navegador. Para usar a documentação da AWS, o Javascript deve estar ativado. Consulte as páginas de Ajuda do navegador para obter instruções. Convenções do documento Solução de problemas de consultas agendadas Usando a detecção de anomalias no CloudWatch Logs Insights Essa página foi útil? - Sim Obrigado por nos informar que estamos fazendo um bom trabalho! Se tiver tempo, conte-nos sobre o que você gostou para que possamos melhorar ainda mais. Essa página foi útil? - Não Obrigado por nos informar que precisamos melhorar a página. Lamentamos ter decepcionado você. Se tiver tempo, conte-nos como podemos melhorar a documentação. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/WhatIsCloudWatchLogs.html | What is Amazon CloudWatch Logs? - Amazon CloudWatch Logs What is Amazon CloudWatch Logs? - Amazon CloudWatch Logs Documentation Amazon CloudWatch User Guide Features Related AWS services Pricing What is Amazon CloudWatch Logs? You can use Amazon CloudWatch Logs to monitor, store, and access your log files from Amazon Elastic Compute Cloud (Amazon EC2) instances, AWS CloudTrail, Route 53, and other sources. CloudWatch Logs enables you to centralize the logs from all of your systems, applications, and AWS services that you use, in a single, highly scalable service. You can then easily view them, search them for specific error codes or patterns, filter them based on specific fields, or archive them securely for future analysis. CloudWatch Logs enables you to see all of your logs, regardless of their source, as a single and consistent flow of events ordered by time. CloudWatch Logs also supports querying your logs with a powerful query language, auditing and masking sensitive data in logs, and generating metrics from logs using filters or an embedded log format. CloudWatch Logs supports two log classes . Log groups in the CloudWatch Logs Standard log class support all CloudWatch Logs features. Log groups in the CloudWatch Logs Infrequent Access log class incur lower ingestion charges and support a subset of the Standard class capabilities. For more information, see Log classes . Features Two log classes for flexibility – CloudWatch Logs offers two log classes so that you can have a cost-effective option for logs that you access infrequently. You also have a full-featured option for logs that require real-time monitoring or other features. For more information, see Log classes . Query your log data – You can use CloudWatch Logs Insights to interactively search and analyze your log data. You can perform queries to help you more efficiently and effectively respond to operational issues. CloudWatch Logs Insights includes a purpose-built query language with a few simple but powerful commands. We provide sample queries, command descriptions, query autocompletion, and log field discovery to help you get started. Sample queries are included for several types of AWS service logs. To get started, see Analyzing log data with CloudWatch Logs Insights . Create field indexes to make queries more efficient – You can create field indexes of fields in your log events. When you then use a field index in a CloudWatch Logs Insights query, the query attempts to skip processing log events that are known to not include the indexed field. This query reduces the scan volume of your queries, making it possible to return results faster. To get started, see Create field indexes to improve query performance and reduce scan volume . Detect and debug using Live Tail – You can use Live Tail to quickly troubleshoot incidents by viewing a streaming list of new log events as they are ingested. You can view, filter, and highlight ingested logs in near real time, helping you to detect and resolve issues quickly. You can filter the logs based on terms you specify, and also highlight logs that contain specified terms to help you quickly find what you are looking for. For more information, see Troubleshoot with CloudWatch Logs Live Tail . Monitor logs from Amazon EC2 instances – You can use CloudWatch Logs to monitor applications and systems using log data. For example, CloudWatch Logs can track the number of errors that occur in your application logs and send you a notification whenever the rate of errors exceeds a threshold you specify. CloudWatch Logs uses your log data for monitoring; so, no code changes are required. For example, you can monitor application logs for specific literal terms (such as "NullReferenceException") or count the number of occurrences of a literal term at a particular position in log data (such as "404" status codes in an Apache access log). When the term you are searching for is found, CloudWatch Logs reports the data to a CloudWatch metric that you specify. Log data is encrypted while in transit and while it is at rest. To get started, see Getting started with CloudWatch Logs . Monitor AWS CloudTrail logged events – You can create alarms in CloudWatch and receive notifications of particular API activity as captured by CloudTrail and use the notification to perform troubleshooting. To get started, see Sending CloudTrail Events to CloudWatch Logs in the AWS CloudTrail User Guide . Audit and mask sensitive data – If you have sensitive data in your logs, you can help safeguard it with data protection policies . These policies let you audit and mask the sensitive data. If you enable data protection, then by default, sensitive data that matches the data identifiers you select is masked. For more information, see Help protect sensitive log data with masking . Log retention – By default, logs are kept indefinitely and never expire. You can adjust the retention policy for each log group, keeping the indefinite retention, or choosing a retention period between 10 years and one day. Deletion protection – A safeguard that prevents accidental deletion of log groups and their log streams. When enabled on a log group, deletion protection blocks all deletion operations until it is explicitly disabled. By default, deletion protection is not enabled. This optional feature helps protect critical operational and compliance data from unintended removal, such as log groups that contain audit data, and production application logs for troubleshooting and analysis. Archive log data – You can use CloudWatch Logs to store your log data in highly durable storage. The CloudWatch Logs agent makes it easy to quickly send both rotated and non-rotated log data off of a host and into the log service. You can then access the raw log data when you need it. Log Route 53 DNS queries – You can use CloudWatch Logs to log information about the DNS queries that Route 53 receives. For more information, see Logging DNS Queries in the Amazon Route 53 Developer Guide . Centralize logs across accounts and regions – You can use CloudWatch Logs Centralization to define cross-account and cross-region centralization rules that replicate log data ingested across multi-account and region environments into a central region and account. You can configure a backup region within the central account for increased resiliency, define encryption settings for newly created log groups in the central account, and create metric and subscription filters on log events from specific source accounts and regions with enhanced filtering capabilities. Related AWS services The following services are used in conjunction with CloudWatch Logs: AWS CloudTrail is a web service that enables you to monitor the calls made to the CloudWatch Logs API for your account, including calls made by the AWS Management Console, AWS Command Line Interface (AWS CLI), and other services. When CloudTrail logging is turned on, CloudTrail captures API calls in your account and delivers the log files to the Amazon S3 bucket that you specify. Each log file can contain one or more records, depending on how many actions must be performed to satisfy a request. For more information about AWS CloudTrail, see What Is AWS CloudTrail? in the AWS CloudTrail User Guide . For an example of the type of data that CloudWatch writes into CloudTrail log files, see Logging CloudWatch Logs API and console operations in AWS CloudTrail . AWS Identity and Access Management (IAM) is a web service that helps you securely control access to AWS resources for your users. Use IAM to control who can use your AWS resources (authentication) and what resources they can use in which ways (authorization). For more information, see What Is IAM? in the IAM User Guide . Amazon Kinesis Data Streams is a web service you can use for rapid and continuous data intake and aggregation. The type of data used includes IT infrastructure log data, application logs, social media, market data feeds, and web clickstream data. Because the response time for the data intake and processing is in real time, processing is typically lightweight. For more information, see What is Amazon Kinesis Data Streams? in the Amazon Kinesis Data Streams Developer Guide . AWS Lambda is a web service you can use to build applications that respond quickly to new information. Upload your application code as Lambda functions and Lambda runs your code on high-availability compute infrastructure and performs all the administration of the compute resources, including server and operating system maintenance, capacity provisioning and automatic scaling, code and security patch deployment, and code monitoring and logging. All you need to do is supply your code in one of the languages that Lambda supports. For more information, see What is AWS Lambda? in the AWS Lambda Developer Guide . Pricing When you sign up for AWS, you can get started with CloudWatch Logs for free using the AWS Free Tier . Standard rates apply for logs stored by other services using CloudWatch Logs (for example, Amazon VPC flow logs and Lambda logs). For more information about pricing, see Amazon CloudWatch Pricing . For more information about how to analyze your costs and usage for CloudWatch Logs and CloudWatch, and for best practices about how to reduce your costs, see CloudWatch billing and cost . Javascript is disabled or is unavailable in your browser. To use the Amazon Web Services Documentation, Javascript must be enabled. Please refer to your browser's Help pages for instructions. Document Conventions Concepts Did this page help you? - Yes Thanks for letting us know we're doing a good job! If you've got a moment, please tell us what we did right so we can do more of it. Did this page help you? - No Thanks for letting us know this page needs work. We're sorry we let you down. If you've got a moment, please tell us how we can make the documentation better. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/de_de/AmazonCloudWatch/latest/logs/LogsAnomalyDetection.html | Erkennung von Protokollanomalien - CloudWatch Amazon-Protokolle Erkennung von Protokollanomalien - CloudWatch Amazon-Protokolle Dokumentation Amazon CloudWatch Benutzer-Leitfaden Schweregrad und Priorität von Anomalien und Mustern Sichtbarkeit und Zeit der Anomalie Unterdrückung einer Anomalie Häufig gestellte Fragen Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich. Erkennung von Protokollanomalien Sie können Anomalien in Ihren Protokolldaten auf zwei Arten erkennen: indem Sie einen Log-Anomalie-Detektor für die kontinuierliche Überwachung erstellen oder indem Sie den anomaly detection Befehl in CloudWatch Logs Insights-Abfragen für Analysen auf Abruf verwenden. Ein Detektor für Protokollanomalien scannt die in eine Protokollgruppe aufgenommenen Protokollereignisse und findet automatisch Anomalien in den Protokolldaten. Bei der Erkennung von Anomalien werden maschinelles Lernen und Mustererkennung eingesetzt, um Ausgangswerte für typische Protokollinhalte festzulegen. Für On-Demand-Analysen können Sie den anomaly detection Befehl in CloudWatch Logs Insights-Abfragen verwenden, um ungewöhnliche Muster in Zeitreihendaten zu identifizieren. Weitere Informationen zur abfragebasierten Erkennung von Anomalien finden Sie unter. Verwendung der Anomalieerkennung in Logs Insights CloudWatch Nachdem Sie einen Anomaliedetektor für eine Protokollgruppe erstellt haben, trainiert er anhand der Protokollereignisse der letzten zwei Wochen in der Protokollgruppe. Die Trainingszeit kann bis zu 15 Minuten dauern. Nach Abschluss der Schulung werden eingehende Protokolle analysiert, um Anomalien zu identifizieren. Die Anomalien werden dann in der CloudWatch Protokollkonsole angezeigt, sodass Sie sie untersuchen können. CloudWatch Die Protokollmustererkennung extrahiert Protokollmuster, indem statische und dynamische Inhalte in Ihren Protokollen identifiziert werden. Muster sind nützlich für die Analyse großer Protokollsätze, da eine große Anzahl von Protokollereignissen oft in wenige Muster komprimiert werden kann. Sehen Sie sich zum Beispiel das folgende Beispiel mit drei Protokollereignissen an. 2023-01-01 19:00:01 [INFO] Calling DynamoDB to store for ResourceID: 12342342k124-12345 2023-01-01 19:00:02 [INFO] Calling DynamoDB to store for ResourceID: 324892398123-1234R 2023-01-01 19:00:03 [INFO] Calling DynamoDB to store for ResourceID: 3ff231242342-12345 Im vorherigen Beispiel folgen alle drei Protokollereignisse einem Muster: <Date-1> <Time-2> [INFO] Calling DynamoDB to store for resource id <ResourceID-3> Felder innerhalb eines Musters werden als Token bezeichnet. Felder, die innerhalb eines Musters variieren, z. B. eine Anforderungs-ID oder ein Zeitstempel, werden als dynamische Token bezeichnet. Jeder unterschiedliche Wert, der für ein dynamisches Token gefunden wird, wird als Tokenwert bezeichnet. Wenn CloudWatch Logs den Datentyp ableiten kann, für den ein dynamisches Token steht, wird das Token als < string - number > angezeigt. Das string ist eine Beschreibung des Datentyps, für den das Token steht. Das number zeigt, an welcher Stelle des Musters dieses Token im Vergleich zu den anderen dynamischen Tokens erscheint. CloudWatch Logs weist die Zeichenfolge als Teil des Namens auf der Grundlage der Analyse des Inhalts der Protokollereignisse zu, in denen der Name enthalten ist. Wenn CloudWatch Logs nicht ableiten kann, für welche Art von Daten ein dynamisches Token steht, zeigt es das Token als <Token- number > number an und gibt an, an welcher Stelle im Muster dieses Token im Vergleich zu den anderen dynamischen Tokens vorkommt. Zu den häufigsten Beispielen für dynamische Token gehören Fehlercodes, IP-Adressen, Zeitstempel und Anfragen. IDs Die Erkennung von Protokollanomalien verwendet diese Muster, um Anomalien zu finden. Nach der Trainingszeit für das Modell des Anomaliedetektors werden die Protokolle anhand bekannter Trends bewertet. Der Anomaliedetektor kennzeichnet signifikante Schwankungen als Anomalien. In diesem Kapitel wird beschrieben, wie Sie die Erkennung von Anomalien aktivieren, Anomalien anzeigen, Alarme für Protokollanomaliedetektoren erstellen und Metriken zur Veröffentlichung von Protokollanomaliedetektoren erstellen. Außerdem wird beschrieben, wie der Anomaliedetektor und seine Ergebnisse mit verschlüsselt werden können. AWS Key Management Service Für die Erstellung von Protokollanomaliedetektoren fallen keine Gebühren an. Schweregrad und Priorität von Anomalien und Mustern Jeder von einem Protokollanomaliedetektor gefundenen Anomalie wird eine Priorität zugewiesen. Jedem gefundenen Muster wird ein Schweregrad zugewiesen. Die Priorität wird automatisch berechnet und basiert sowohl auf dem Schweregrad des Musters als auch auf dem Ausmaß der Abweichung von den erwarteten Werten. Wenn beispielsweise ein bestimmter Token-Wert plötzlich um 500% steigt, kann diese Anomalie als HIGH Priorität eingestuft werden, auch wenn ihr Schweregrad NONE Der Schweregrad basiert nur auf Schlüsselwörtern, die in den Mustern wie FATAL ERROR , und vorkommen. WARN Wenn keines dieser Schlüsselwörter gefunden wird, wird der Schweregrad eines Musters als gekennzeichnet NONE . Sichtbarkeit und Zeit der Anomalie Wenn Sie einen Anomaliedetektor erstellen, geben Sie die maximale Sichtbarkeitsdauer für Anomalien an. Dies ist die Anzahl der Tage, an denen die Anomalie in der Konsole angezeigt und durch den ListAnomalies API-Vorgang zurückgegeben wird. Tritt eine Anomalie nach Ablauf dieses Zeitraums weiterhin auf, wird sie automatisch als normales Verhalten akzeptiert und das Anomaliedetektormodell meldet sie nicht mehr als Anomalie. Wenn Sie die Sichtbarkeitszeit bei der Erstellung eines Anomaliedetektors nicht anpassen, werden 21 Tage als Standard verwendet. Unterdrückung einer Anomalie Nachdem eine Anomalie gefunden wurde, können Sie wählen, ob sie vorübergehend oder dauerhaft unterdrückt werden soll. Das Unterdrücken einer Anomalie bewirkt, dass der Anomaliedetektor dieses Ereignis für den von Ihnen angegebenen Zeitraum nicht mehr als Anomalie kennzeichnet. Wenn Sie eine Anomalie unterdrücken, können Sie wählen, ob Sie nur diese bestimmte Anomalie oder alle Anomalien unterdrücken möchten, die mit dem Muster zusammenhängen, in dem die Anomalie gefunden wurde. Sie können unterdrückte Anomalien weiterhin in der Konsole anzeigen. Sie können sich auch dafür entscheiden, sie nicht mehr zu unterdrücken. Häufig gestellte Fragen AWS Verwendet es meine Daten, um Algorithmen für maschinelles Lernen für den AWS Gebrauch oder für andere Kunden zu trainieren? Nein. Das durch das Training erstellte Modell zur Erkennung von Anomalien basiert auf den Protokollereignissen in einer Protokollgruppe und wird nur innerhalb dieser Protokollgruppe und dieses AWS Kontos verwendet. Welche Arten von Protokollereignissen eignen sich gut für die Erkennung von Anomalien? Die Erkennung von Protokollanomalien eignet sich gut für: Anwendungsprotokolle und andere Protokolltypen, bei denen die meisten Protokolleinträge typischen Mustern entsprechen. Protokollgruppen mit Ereignissen, die Schlüsselwörter für die Protokollebene oder den Schweregrad enthalten, wie INFO , ERROR und DEBUG , eignen sich besonders gut für die Erkennung von Protokollanomalien. Die Erkennung von Protokollanomalien ist nicht geeignet für: Protokollereignisse mit extrem langen JSON-Strukturen wie Logs. CloudTrail Die Musteranalyse analysiert nur die ersten 1500 Zeichen einer Protokollzeile, sodass alle Zeichen, die diese Grenze überschreiten, übersprungen werden. Audit- oder Zugriffsprotokolle, wie z. B. VPC-Flow-Logs, werden bei der Erkennung von Anomalien ebenfalls weniger Erfolg haben. Die Anomalieerkennung dient der Erkennung von Anwendungsproblemen und ist daher möglicherweise nicht für Netzwerk- oder Zugriffsanomalien geeignet. Um festzustellen, ob ein Anomaliedetektor für eine bestimmte Protokollgruppe geeignet ist, verwenden Sie die CloudWatch Protokollmusteranalyse, um die Anzahl der Muster in den Protokollereignissen in der Gruppe zu ermitteln. Wenn die Anzahl der Muster nicht mehr als etwa 300 beträgt, funktioniert die Erkennung von Anomalien möglicherweise gut. Weitere Informationen zur Musteranalyse finden Sie unter Musteranalyse . Was wird als Anomalie gekennzeichnet? Die folgenden Ereignisse können dazu führen, dass ein Protokollereignis als Anomalie gekennzeichnet wird: Ein Protokollereignis mit einem Muster, das in der Protokollgruppe noch nie zuvor beobachtet wurde. Eine signifikante Abweichung von einem bekannten Muster. Ein neuer Wert für ein dynamisches Token mit einem diskreten Satz üblicher Werte. Eine starke Änderung der Häufigkeit, mit der ein Wert für ein dynamisches Token vorkommt. Obwohl alle oben genannten Punkte möglicherweise als Anomalien gekennzeichnet werden, bedeuten sie nicht alle, dass die Anwendung schlecht funktioniert. Beispielsweise könnten eine higher-than-usual Reihe von 200 Erfolgswerten als Anomalie gekennzeichnet werden. In Fällen wie diesem könnten Sie erwägen, diese Anomalien zu unterdrücken, die nicht auf Probleme hinweisen. Was passiert mit sensiblen Daten, die maskiert werden? Alle Teile von Protokollereignissen, die als sensible Daten maskiert sind, werden nicht auf Anomalien überprüft. Weitere Informationen zum Maskieren vertraulicher Daten finden Sie unter Hilfe zum Schutz vertraulicher Protokolldaten durch Maskierung. JavaScript ist in Ihrem Browser nicht verfügbar oder deaktiviert. Zur Nutzung der AWS-Dokumentation muss JavaScript aktiviert sein. Weitere Informationen finden auf den Hilfe-Seiten Ihres Browsers. Dokumentkonventionen Fehlerbehebung bei geplanten Abfragen Verwendung der Anomalieerkennung in Logs Insights CloudWatch Hat Ihnen diese Seite geholfen? – Ja Vielen Dank, dass Sie uns mitgeteilt haben, dass wir gute Arbeit geleistet haben! Würden Sie sich einen Moment Zeit nehmen, um uns mitzuteilen, was wir richtig gemacht haben, damit wir noch besser werden? Hat Ihnen diese Seite geholfen? – Nein Vielen Dank, dass Sie uns mitgeteilt haben, dass diese Seite überarbeitet werden muss. Es tut uns Leid, dass wir Ihnen nicht weiterhelfen konnten. Würden Sie sich einen Moment Zeit nehmen, um uns mitzuteilen, wie wir die Dokumentation verbessern können? | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-Agent-configure-related-telemetry.html | Configure CloudWatch agent service and environment names for related entities - Amazon CloudWatch Configure CloudWatch agent service and environment names for related entities - Amazon CloudWatch Documentation Amazon CloudWatch User Guide Configure CloudWatch agent service and environment names for related entities The CloudWatch agent can send metrics and logs with entity data to support the Explore related pane in the CloudWatch console. The service name or environment name can be configured by the CloudWatch Agent JSON configuration . Note The agent configuration may be overridden. For details about how the agent decides what data to send for related entities, see Using the CloudWatch agent with related telemetry . For metrics, it can be configured at the agent, metrics, or plugin level. For logs it can be configured at the agent, logs, or file level. The most specific configuration is always used. For example if the configuration exists at the agent level and metrics level, then metrics will use the metric configuration, and anything else (logs) will use the agent configuration. The following example shows different ways to configure the service name and environment name. { "agent": { "service.name": "agent-level-service", "deployment.environment": "agent-level-environment" }, "metrics": { "service.name": "metric-level-service", "deployment.environment": "metric-level-environment", "metrics_collected": { "statsd": { "service.name": "statsd-level-service", "deployment.environment": "statsd-level-environment", }, "collectd": { "service.name": "collectdd-level-service", "deployment.environment": "collectd-level-environment", } } }, "logs": { "service.name": "log-level-service", "deployment.environment": "log-level-environment", "logs_collected": { "files": { "collect_list": [ { "file_path": "/opt/aws/amazon-cloudwatch-agent/logs/amazon-cloudwatch-agent.log", "log_group_name": "amazon-cloudwatch-agent.log", "log_stream_name": "amazon-cloudwatch-agent.log", "service.name": "file-level-service", "deployment.environment": "file-level-environment" } ] } } } } Javascript is disabled or is unavailable in your browser. To use the Amazon Web Services Documentation, Javascript must be enabled. Please refer to your browser's Help pages for instructions. Document Conventions Set up and configure Prometheus metrics collection on Amazon EC2 instances Start the CloudWatch agent Did this page help you? - Yes Thanks for letting us know we're doing a good job! If you've got a moment, please tell us what we did right so we can do more of it. Did this page help you? - No Thanks for letting us know this page needs work. We're sorry we let you down. If you've got a moment, please tell us how we can make the documentation better. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/fr_fr/AmazonCloudWatch/latest/logs/LogsAnomalyDetection.html | Détection des anomalies du journal - Amazon CloudWatch Logs Détection des anomalies du journal - Amazon CloudWatch Logs Documentation Amazon CloudWatch Guide de l’utilisateur Gravité et priorité des anomalies et des modèles Durée de visibilité des anomalies Supprimer une anomalie Questions fréquentes (FAQ) Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra. Détection des anomalies du journal Vous pouvez détecter les anomalies dans les données de votre journal de deux manières : en créant un détecteur d'anomalies de journal pour une surveillance continue, ou en utilisant la anomaly detection commande dans les requêtes CloudWatch Logs Insights pour une analyse à la demande. Un détecteur d'anomalies du journal analyse les événements du journal ingérés dans un groupe de journaux et détecte automatiquement les anomalies dans les données du journal. La détection des anomalies utilise l'apprentissage automatique et la reconnaissance de formes pour établir des bases de référence pour le contenu typique des journaux. Pour une analyse à la demande, vous pouvez utiliser la anomaly detection commande dans les requêtes CloudWatch Logs Insights pour identifier des modèles inhabituels dans les données de séries chronologiques. Pour plus d'informations sur la détection des anomalies basée sur les requêtes, consultez. Utilisation de la détection des anomalies dans CloudWatch Logs Insights Une fois que vous avez créé un détecteur d'anomalies pour un groupe de journaux, celui-ci s'entraîne en utilisant les événements des deux dernières semaines dans le groupe de journaux à des fins d'entraînement. La période d'entraînement peut durer jusqu'à 15 minutes. Une fois la formation terminée, elle commence à analyser les journaux entrants pour identifier les anomalies, qui sont affichées dans la console CloudWatch Logs pour que vous puissiez les examiner. CloudWatch La reconnaissance des modèles de journaux extrait les modèles de journaux en identifiant le contenu statique et dynamique de vos journaux. Les modèles sont utiles pour analyser de grands ensembles de journaux, car un grand nombre d'événements de journal peuvent souvent être compressés en plusieurs modèles. Par exemple, consultez l'exemple suivant de trois événements de journal. 2023-01-01 19:00:01 [INFO] Calling DynamoDB to store for ResourceID: 12342342k124-12345 2023-01-01 19:00:02 [INFO] Calling DynamoDB to store for ResourceID: 324892398123-1234R 2023-01-01 19:00:03 [INFO] Calling DynamoDB to store for ResourceID: 3ff231242342-12345 Dans l'exemple précédent, les trois événements du journal suivent le même schéma : <Date-1> <Time-2> [INFO] Calling DynamoDB to store for resource id <ResourceID-3> Les champs d'un modèle sont appelés jetons . Les champs qui varient au sein d'un modèle, tels qu'un ID de demande ou un horodatage, sont appelés jetons dynamiques . Chaque valeur différente trouvée pour un jeton dynamique est appelée valeur de jeton . Si CloudWatch Logs peut déduire le type de données représenté par un jeton dynamique, il affiche le jeton sous < string - number > la forme. string Il s'agit d'une description du type de données que le jeton représente. number Indique où ce jeton apparaît dans le modèle, par rapport aux autres jetons dynamiques. CloudWatch Logs attribue la partie chaîne du nom en fonction de l'analyse du contenu des événements du journal qui le contiennent. Si CloudWatch Logs ne peut pas déduire le type de données représenté par un jeton dynamique, il affiche le jeton sous la forme <Token- number > et number indique où ce jeton apparaît dans le schéma, par rapport aux autres jetons dynamiques. Les exemples courants de jetons dynamiques incluent les codes d'erreur, les adresses IP, les horodatages et les demandes. IDs La détection des anomalies dans les journaux utilise ces modèles pour détecter les anomalies. Après la période de formation du modèle de détecteur d'anomalies, les journaux sont évalués par rapport aux tendances connues. Le détecteur d'anomalies signale les fluctuations importantes comme des anomalies. Ce chapitre explique comment activer la détection des anomalies, visualiser les anomalies, créer des alarmes pour les détecteurs d'anomalies dans les journaux et les mesures publiées par les détecteurs d'anomalies dans les journaux. Il décrit également comment chiffrer le détecteur d'anomalies et ses résultats avec. AWS Key Management Service La création de détecteurs d'anomalies du journal n'entraîne aucun frais. Gravité et priorité des anomalies et des modèles Une priorité est attribuée à chaque anomalie détectée par un détecteur d'anomalies logarithmiques. Une gravité est attribuée à chaque modèle détecté. La priorité est automatiquement calculée et est basée à la fois sur le niveau de gravité du modèle et sur l'écart par rapport aux valeurs attendues. Par exemple, si la valeur d'un jeton augmente soudainement de 500 %, cette anomalie peut être désignée comme HIGH prioritaire, même si sa gravité l'est. NONE La sévérité est basée uniquement sur les mots clés trouvés dans les modèles tels que FATAL ERROR , et WARN . Si aucun de ces mots clés n'est trouvé, la gravité d'un modèle est marquée comme NONE . Durée de visibilité des anomalies Lorsque vous créez un détecteur d'anomalies, vous spécifiez la période maximale de visibilité des anomalies pour celui-ci. Il s'agit du nombre de jours pendant lesquels l'anomalie s'affiche dans la console et est renvoyée par l'opération ListAnomalies d'API. Une fois ce délai écoulé pour une anomalie, si elle persiste, elle est automatiquement acceptée comme un comportement normal et le modèle de détecteur d'anomalie cesse de la signaler comme une anomalie. Si vous ne réglez pas le temps de visibilité lorsque vous créez un détecteur d'anomalie, 21 jours sont utilisés par défaut. Supprimer une anomalie Une fois qu'une anomalie a été détectée, vous pouvez choisir de la supprimer temporairement ou définitivement. La suppression d'une anomalie empêche le détecteur d'anomalie de signaler cette occurrence comme une anomalie pendant la durée que vous spécifiez. Lorsque vous supprimez une anomalie, vous pouvez choisir de supprimer uniquement cette anomalie spécifique ou de supprimer toutes les anomalies liées au schéma dans lequel l'anomalie a été détectée. Vous pouvez toujours consulter les anomalies supprimées dans la console. Vous pouvez également choisir de ne plus les supprimer. Questions fréquentes (FAQ) Est-ce que mes données sont AWS utilisées pour entraîner des algorithmes d'apprentissage automatique destinés à être AWS utilisés ou destinés à d'autres clients ? Non Le modèle de détection des anomalies créé par la formation est basé sur les événements du journal d'un groupe de journaux et n'est utilisé qu'au sein de ce groupe de journaux et de ce AWS compte. Quels types d'événements de journal fonctionnent bien avec la détection des anomalies ? La détection des anomalies dans les journaux convient parfaitement aux journaux d'applications et aux autres types de journaux dans lesquels la plupart des entrées de journal correspondent à des modèles classiques. Les groupes de journaux contenant des événements contenant un niveau de journalisation ou des mots clés de gravité tels que INFO , ERROR et DEBUG sont particulièrement adaptés à la détection des anomalies des journaux. La détection des anomalies du journal n'est pas adaptée pour : enregistrez les événements avec des structures JSON extrêmement longues, tels que CloudTrail les journaux. L'analyse des modèles analyse uniquement les 1 500 premiers caractères d'une ligne de journal, de sorte que tous les caractères dépassant cette limite sont ignorés. Les journaux d'audit ou d'accès, tels que les journaux de flux VPC, seront également moins efficaces en matière de détection des anomalies. La détection des anomalies est destinée à détecter les problèmes d'application. Elle peut donc ne pas être adaptée aux anomalies du réseau ou de l'accès. Pour vous aider à déterminer si un détecteur d'anomalies convient à un certain groupe de journaux, utilisez l'analyse des modèles de CloudWatch journaux pour déterminer le nombre de modèles dans les événements de journal du groupe. Si le nombre de modèles n'est pas supérieur à environ 300, la détection des anomalies peut fonctionner correctement. Pour plus d'informations sur l'analyse des modèles, consultez Analyse de modèles . Qu'est-ce qui est considéré comme une anomalie ? Les événements suivants peuvent entraîner le marquage d'un événement du journal comme une anomalie : Un événement de journal dont le schéma n'a jamais été observé auparavant dans le groupe de journaux. Variation significative par rapport à un schéma connu. Nouvelle valeur pour un jeton dynamique comportant un ensemble discret de valeurs habituelles. Modification importante du nombre d'occurrences d'une valeur pour un jeton dynamique. Bien que tous les éléments précédents puissent être marqués comme des anomalies, ils ne signifient pas tous que l'application fonctionne mal. Par exemple, un higher-than-usual certain nombre de valeurs de 200 réussite peuvent être signalées comme des anomalies. Dans de tels cas, vous pouvez envisager de supprimer ces anomalies qui n'indiquent pas de problèmes. Que se passe-t-il avec les données sensibles masquées ? Les parties des événements du journal qui sont masquées comme des données sensibles ne sont pas analysées pour détecter toute anomalie. Pour plus d'informations sur le masquage des données sensibles, voir Aider à protéger les données de journal sensibles par le masquage . JavaScript est désactivé ou n'est pas disponible dans votre navigateur. Pour que vous puissiez utiliser la documentation AWS, Javascript doit être activé. Vous trouverez des instructions sur les pages d'aide de votre navigateur. Conventions de rédaction Résolution des problèmes de requêtes planifiées Utilisation de la détection des anomalies dans CloudWatch Logs Insights Cette page vous a-t-elle été utile ? - Oui Merci de nous avoir fait part de votre satisfaction. Si vous avez quelques minutes à nous consacrer, merci de nous indiquer ce qui vous a plu afin que nous puissions nous améliorer davantage. Cette page vous a-t-elle été utile ? - Non Merci de nous avoir avertis que cette page avait besoin d'être retravaillée. Nous sommes désolés de ne pas avoir répondu à vos attentes. Si vous avez quelques minutes à nous consacrer, merci de nous indiquer comment nous pourrions améliorer cette documentation. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/es_es/AmazonCloudWatch/latest/logs/LogsAnomalyDetection.html | Detección de anomalías en registros - Amazon CloudWatch Logs Detección de anomalías en registros - Amazon CloudWatch Logs Documentación Amazon CloudWatch Guía del usuario de Gravedad y prioridad de las anomalías y patrones Tiempo de visibilidad de anomalías Supresión de anomalías Preguntas frecuentes Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés. Detección de anomalías en registros Puede detectar anomalías en los datos de registro de dos maneras: creando un detector de anomalías de registro para una supervisión continua o utilizando el anomaly detection comando en las consultas de CloudWatch Logs Insights para realizar análisis bajo demanda. Un detector de anomalías de registro analiza los eventos de registro incorporados a un grupo de registros y encuentra anomalías de manera automática en los datos del registro. La detección de anomalías utiliza métodos de machine learning y el reconocimiento de patrones para establecer líneas base del contenido típico de los registros. Para el análisis bajo demanda, puede usar el anomaly detection comando en las consultas de CloudWatch Logs Insights para identificar patrones inusuales en los datos de series temporales. Para obtener más información sobre la detección de anomalías basadas en consultas, consulte Uso de la detección de anomalías en Logs Insights CloudWatch . Después de crear un detector de anomalías para un grupo de registro, se entrena mediante los eventos de registro de las últimas dos semanas en el grupo de registro para la formación. El período de formación puede tardar hasta 15 minutos. Una vez finalizada la formación, comienza a analizar los registros entrantes para identificar las anomalías, que se muestran en la consola de CloudWatch registros para que las pueda examinar. CloudWatch El reconocimiento de patrones de registros extrae los patrones de registro al identificar el contenido estático y dinámico de los registros. Los patrones son útiles para analizar conjuntos de registros grandes porque, a menudo, una gran cantidad de eventos de registro se pueden comprimir en unos pocos patrones. Por ejemplo, consulte el siguiente ejemplo de tres eventos de registro. 2023-01-01 19:00:01 [INFO] Calling DynamoDB to store for ResourceID: 12342342k124-12345 2023-01-01 19:00:02 [INFO] Calling DynamoDB to store for ResourceID: 324892398123-1234R 2023-01-01 19:00:03 [INFO] Calling DynamoDB to store for ResourceID: 3ff231242342-12345 En el ejemplo anterior, los tres eventos de registro siguen un patrón: <Date-1> <Time-2> [INFO] Calling DynamoDB to store for resource id <ResourceID-3> Los campos dentro de un patrón se denominan tokens . Los campos que varían dentro de un patrón, como un ID de solicitud o una marca de tiempo, se denominan tokens dinámicos . Cada valor diferente que se encuentre en un token dinámico se denomina valor de token . Si CloudWatch Logs puede deducir el tipo de datos que representa un token dinámico, muestra el token como < string - number > . string Es una descripción del tipo de datos que representa el token. number Muestra en qué parte del patrón aparece este token, en comparación con los otros tokens dinámicos. CloudWatch Los registros asignan a la cadena una parte del nombre en función del análisis del contenido de los eventos del registro que lo contienen. Si CloudWatch Logs no puede deducir el tipo de datos que representa un token dinámico, muestra el token como <Token- number > e number indica en qué parte del patrón aparece este token, en comparación con los demás tokens dinámicos. Algunos ejemplos comunes de tokens dinámicos son los códigos de error, las direcciones IP, las marcas de tiempo y las solicitudes. IDs La detección de anomalías en los registros utiliza estos patrones para encontrar anomalías. Tras el período de entrenamiento del modelo de detector de anomalías, los registros se evalúan comparándolos con las tendencias conocidas. El detector de anomalías marca las fluctuaciones significativas como anomalías. En este capítulo se describe cómo habilitar la detección de anomalías, ver las anomalías, crear alarmas para los detectores de anomalías de registro y las métricas que publican estos últimos. También describe cómo cifrar el detector de anomalías y sus resultados con. AWS Key Management Service La creación de detectores de anomalías de registro no conlleva cargos. Gravedad y prioridad de las anomalías y patrones A cada anomalía que descubre un detector de anomalías de registro se le asigna una prioridad . A cada patrón encontrado se le asigna una gravedad . La prioridad se calcula automáticamente y se basa tanto en el nivel de gravedad del patrón como en la cantidad de desviación con respecto a los valores esperados. Por ejemplo, si un determinado valor del token aumenta repentinamente un 500 %, esa anomalía puede designarse como de prioridad HIGH aunque su gravedad sea NONE . La gravedad se basa únicamente en las palabras clave que se encuentran en patrones como FATAL , ERROR y WARN . Si no se encuentra ninguna de estas palabras clave, la gravedad del patrón se marca como NONE . Tiempo de visibilidad de anomalías Al crear un detector de anomalías, debe especificar el período máximo de visibilidad de las anomalías. Es el número de días durante los que la anomalía se muestra en la consola y la devuelve la operación de la ListAnomalies API. Una vez transcurrido este período de tiempo en una anomalía, si continúa ocurriendo, se acepta automáticamente como un comportamiento normal y el modelo detector de anomalías deja de marcarla como tal. Si no ajusta el tiempo de visibilidad al crear un detector de anomalías, se utilizan 21 días de forma predeterminada. Supresión de anomalías Una vez detectada una anomalía, puede suprimirla temporal o permanentemente. Al suprimir una anomalía, el detector de anomalías deja de marcar la incidencia como una anomalía durante el tiempo que especifique. Al suprimir una anomalía, puede optar por suprimir solo esa anomalía específica o suprimir todas las anomalías relacionadas con el patrón en el que se encontró esta. Puede seguir viendo las anomalías suprimidas en la consola. También puede dejar de suprimirlas. Preguntas frecuentes ¿ AWS Utilizo mis datos para entrenar los algoritmos de aprendizaje automático para AWS su uso o para otros clientes? No. El modelo de detección de anomalías creado por la capacitación se basa en los eventos de registro de un grupo de registros y solo se usa dentro de ese grupo de registros y esa AWS cuenta. ¿Qué tipos de eventos de registro funcionan bien con la detección de anomalías? La detección de anomalías en los registros es adecuada para: los registros de aplicaciones y otros tipos de registros en los que la mayoría de las entradas de registro se ajustan a los patrones típicos. Los grupos de registro con eventos que contienen un nivel de registro o palabras clave de gravedad, como INFO , ERROR y DEBUG , son especialmente adecuados para la detección de anomalías en los registros. La detección de anomalías en los registros no es adecuada para: Registrar eventos con estructuras JSON extremadamente largas, como CloudTrail los registros. El análisis de patrones analiza solo los primeros 1500 caracteres de una línea de registro, por lo que se omite cualquier carácter que supere ese límite. Los registros de auditoría o acceso, como los registros de flujo de VPC, también tendrán menos éxito con la detección de anomalías. El objetivo de la detección de anomalías es detectar problemas en las aplicaciones, por lo que es posible que esta opción no sea adecuada para las anomalías de acceso o de red. Para ayudarle a determinar si un detector de anomalías es adecuado para un grupo de registros determinado, utilice el análisis de patrones de CloudWatch registros para encontrar el número de patrones en los eventos de registro del grupo. Si el número de patrones no supera los 300, la detección de anomalías debería funcionar bien. Para obtener más información sobre el análisis de patrones, consulte Análisis del patrón . ¿Qué se marca como una anomalía? Los siguientes resultados pueden provocar que un evento de registro se marque como una anomalía: Un evento de registro con un patrón que no se había visto antes en el grupo de registro. Una variación significativa de un patrón conocido. Un valor nuevo de un token dinámico que tiene un conjunto discreto de valores habituales. Un cambio importante en el número de apariciones de un valor de un token dinámico. Si bien todos los elementos anteriores pueden marcarse como anomalías, no todos ellos significan que la aplicación esté funcionando mal. Por ejemplo, higher-than-usual varios valores de 200 éxito pueden marcarse como anomalías. En casos como este, considere la posibilidad de suprimir las anomalías que no indiquen problemas. ¿Qué ocurre con los datos confidenciales que se enmascaran? Las partes de los eventos de registro que estén enmascaradas como datos confidenciales no se escanean para detectar anomalías. Para obtener más información, consulte Protección de datos de registro confidenciales con el enmascaramiento . JavaScript está desactivado o no está disponible en su navegador. Para utilizar la documentación de AWS, debe estar habilitado JavaScript. Para obtener más información, consulte las páginas de ayuda de su navegador. Convenciones del documento Solución de problemas de consultas programadas Uso de la detección de anomalías en Logs Insights CloudWatch ¿Le ha servido de ayuda esta página? - Sí Gracias por hacernos saber que estamos haciendo un buen trabajo. Si tiene un momento, díganos qué es lo que le ha gustado para que podamos seguir trabajando en esa línea. ¿Le ha servido de ayuda esta página? - No Gracias por informarnos de que debemos trabajar en esta página. Lamentamos haberle defraudado. Si tiene un momento, díganos cómo podemos mejorar la documentación. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/pt_br/AmazonCloudWatch/latest/logs/LogsAnomalyDetection.html | Detecção de anomalias de log - CloudWatch Registros da Amazon Detecção de anomalias de log - CloudWatch Registros da Amazon Documentação Amazon CloudWatch Manual do usuário Gravidade e prioridade de anomalias e padrões Tempo de visibilidade das anomalias Supressão de uma anomalia Perguntas frequentes As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá. Detecção de anomalias de log Você pode detectar anomalias em seus dados de registro de duas maneiras: criando um detector de anomalias de log para monitoramento contínuo ou usando o anomaly detection comando nas consultas do CloudWatch Logs Insights para análise sob demanda. Um detector de anomalias de log verifica os eventos de logs ingeridos no grupo de logs e encontra anomalias nos dados de log automaticamente. A detecção de anomalias usa machine learning e reconhecimento de padrões para estabelecer linhas de base de conteúdo típico dos logs. Para análise sob demanda, você pode usar o anomaly detection comando nas consultas do CloudWatch Logs Insights para identificar padrões incomuns em dados de séries temporais. Para obter mais informações sobre detecção de anomalias baseada em consulta, consulte Usando a detecção de anomalias no CloudWatch Logs Insights . Depois que você cria um detector de anomalias para um grupo de logs, ele é treinado usando as últimas duas semanas de eventos de log do grupo de logs para treinamento. O período de treinamento pode levar até 15 minutos. Depois que o treinamento é concluído, ele começa a analisar os registros recebidos para identificar anomalias, e as anomalias são exibidas no console de CloudWatch registros para você examinar. CloudWatch O reconhecimento de padrões de registros extrai padrões de registros identificando conteúdo estático e dinâmico em seus registros. Os padrões são úteis para analisar grandes conjuntos de logs porque um grande número de eventos de log geralmente pode ser resumido a apenas alguns padrões. Por exemplo, veja o exemplo de três eventos de log a seguir. 2023-01-01 19:00:01 [INFO] Calling DynamoDB to store for ResourceID: 12342342k124-12345 2023-01-01 19:00:02 [INFO] Calling DynamoDB to store for ResourceID: 324892398123-1234R 2023-01-01 19:00:03 [INFO] Calling DynamoDB to store for ResourceID: 3ff231242342-12345 No exemplo anterior, todos os três eventos de log seguem um único padrão: <Date-1> <Time-2> [INFO] Calling DynamoDB to store for resource id <ResourceID-3> Os campos dentro de um padrão são chamados de tokens . Os campos que variam dentro de um padrão, como um ID de solicitação ou um timestamp, são chamados de tokens dinâmicos . Cada valor diferente encontrado para um token dinâmico é chamado de valor de token . Se o CloudWatch Logs puder inferir o tipo de dados que um token dinâmico representa, ele exibirá o token como < string - number > . string É uma descrição do tipo de dados que o token representa. number Mostra onde esse token aparece no padrão, em comparação com os outros tokens dinâmicos. CloudWatch O Logs atribui a parte da string do nome com base na análise do conteúdo dos eventos de log que a contêm. Se o CloudWatch Logs não conseguir inferir o tipo de dados que um token dinâmico representa, ele exibe o token como <Token- number > e number indica onde esse token aparece no padrão, em comparação com os outros tokens dinâmicos. Exemplos comuns de tokens dinâmicos incluem códigos de erro, endereços IP, registros de data e hora e solicitações. IDs A detecção de anomalias de log usa esses padrões para encontrar anomalias. Após o período de treinamento de modelo do detector de anomalias, os logs são avaliados em relação às tendências conhecidas. O detector de anomalias sinaliza flutuações significativas como anomalias. Este capítulo descreve como habilitar a detecção de anomalias, visualizar anomalias, criar alarmes para detectores de anomalias de log e as métricas que os detectores de anomalias de log publicam. Também descreve como criptografar o detector de anomalias e seus resultados com. AWS Key Management Service A criação de detectores de anomalias de log não é cobrada. Gravidade e prioridade de anomalias e padrões A cada anomalia encontrada por um detector de anomalias de log é atribuída uma prioridade . A cada padrão encontrado é atribuída uma gravidade . A prioridade é calculada automaticamente com base no nível de gravidade do padrão e na quantidade de desvio dos valores esperados. Por exemplo, se um determinado valor de token aumentar repentinamente em 500%, essa anomalia pode ser designada como tendo prioridade HIGH , mesmo que sua gravidade seja NONE . A gravidade é baseada apenas nas palavras-chave encontradas nos padrões, como FATAL , ERROR e WARN . Se nenhuma dessas palavras-chave for encontrada, a gravidade de um padrão será marcada como NONE . Tempo de visibilidade das anomalias Ao criar um detector de anomalias, você especifica o período máximo de visibilidade das anomalias para ele. Esse é o número de dias em que a anomalia é exibida no console e é retornada pela operação da ListAnomalies API. Depois de decorrido esse tempo para uma anomalia, se ela continuar ocorrendo, será automaticamente aceita como um comportamento normal e o modelo do detector de anomalias não a sinalizará mais como uma anomalia. Se você não ajustar o tempo de visibilidade quando criar um detector de anomalias, o padrão de 21 dias será usado. Supressão de uma anomalia Depois que uma anomalia é encontrada, você pode optar por suprimi-la temporária ou permanentemente. A supressão de uma anomalia faz com que o detector de anomalias pare de sinalizar essa ocorrência como uma anomalia durante o tempo que você especificar. Ao suprimir uma anomalia, você pode optar por suprimir apenas essa anomalia específica ou todas as anomalias relacionadas ao padrão no qual a anomalia foi encontrada. Você continua podendo visualizar as anomalias suprimidas no console. Você também pode escolher deixar de suprimi-las. Perguntas frequentes AWS Usa meus dados para treinar algoritmos de aprendizado de máquina para AWS uso ou para outros clientes? Não. O modelo de detecção de anomalias criado pelo treinamento é baseado nos eventos de registro em um grupo de registros e é usado somente nesse grupo de registros e nessa AWS conta. Que tipos de eventos de log funcionam bem com a detecção de anomalias? A detecção de anomalias de log é adequada para: logs de aplicações e outros tipos de log em que a maioria das entradas de log se enquadra nos padrões típicos. Grupos de logs com eventos que contêm um nível de log ou palavras-chave de gravidade, como INFO , ERROR e DEBUG , são especialmente adequados para a detecção de anomalias de log. A detecção de anomalias de log não é adequada para: Registrar eventos com estruturas JSON extremamente longas, como CloudTrail Logs. A análise de padrões só analisa os primeiros 1.500 caracteres de uma linha de log, portanto, todos os caracteres além desse limite são ignorados. Logs de auditoria ou acesso, como logs de fluxo de VPC, também terão menos sucesso com a detecção de anomalias. A detecção de anomalias serve para encontrar problemas de aplicações, assim sendo, pode não ser adequada para anomalias de rede ou acesso. Para ajudá-lo a determinar se um detector de anomalias é adequado para um determinado grupo de CloudWatch registros, use a análise de padrões de registros para encontrar o número de padrões nos eventos de registro no grupo. Se a quantidade de padrões não passar de cerca de 300, a detecção de anomalias poderá funcionar bem. Para obter mais informações sobre análise de padrões, consulte Análise de padrões . O que é sinalizado como anomalia? As seguintes ocorrências podem fazer um evento de log ser sinalizado como uma anomalia: Um evento de log com um padrão nunca visto antes no grupo de logs. Uma variação significativa de um padrão conhecido. Um novo valor para um token dinâmico que tem um conjunto discreto de valores usuais. Uma grande alteração no número de ocorrências de um valor para um token dinâmico. Embora todos os itens anteriores possam estar sinalizados como anomalias, nem todos significam que a aplicação está funcionando mal. Por exemplo, higher-than-usual vários valores de 200 sucesso podem ser sinalizados como uma anomalia. Em casos como esse, você pode considerar suprimir essas anomalias que não indicam problemas. O que acontece com os dados confidenciais que estão sendo mascarados? Todas as partes de eventos de log que são mascaradas como dados confidenciais não são varridas para detectar anomalias. Para obter mais informações, consulte Help protect sensitive log data with masking . O Javascript está desativado ou não está disponível no seu navegador. Para usar a documentação da AWS, o Javascript deve estar ativado. Consulte as páginas de Ajuda do navegador para obter instruções. Convenções do documento Solução de problemas de consultas agendadas Usando a detecção de anomalias no CloudWatch Logs Insights Essa página foi útil? - Sim Obrigado por nos informar que estamos fazendo um bom trabalho! Se tiver tempo, conte-nos sobre o que você gostou para que possamos melhorar ainda mais. Essa página foi útil? - Não Obrigado por nos informar que precisamos melhorar a página. Lamentamos ter decepcionado você. Se tiver tempo, conte-nos como podemos melhorar a documentação. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/it_it/AmazonCloudWatch/latest/monitoring/CloudWatch-Application-Monitoring-Sections.html#application-signals-features | Segnali applicativi - Amazon CloudWatch Segnali applicativi - Amazon CloudWatch Documentazione Amazon CloudWatch Guida per l’utente Funzionalità Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà. Segnali applicativi CloudWatch Application Signals consente di monitorare e migliorare le prestazioni delle applicazioni su. AWS Raccoglie automaticamente i dati dalle tue applicazioni in esecuzione su servizi come Amazon EC2, Amazon ECS e Lambda. Puoi utilizzare CloudWatch Application Signals per quanto segue: Monitoraggio dello stato delle applicazioni in tempo reale Tracciamento delle prestazioni rispetto agli obiettivi aziendali Visualizzazione delle relazioni tra servizi e dipendenze Rapida identificazione e risoluzione dei problemi di prestazioni Consenti ad Application Signals di raccogliere automaticamente parametri e tracce dalle tue applicazioni e di visualizzare parametri chiave come volume delle chiamate, disponibilità, latenza, guasti ed errori. Visualizza e valuta rapidamente l'integrità operativa attuale e se le tue applicazioni stanno raggiungendo i loro obiettivi di prestazione a lungo termine, senza scrivere codice personalizzato o creare pannelli di controllo. Crea e monitora obiettivi a livello di servizio (SLOs) con Application Signals. Crea e monitora facilmente lo stato delle metriche SLOs correlate, incluse le nuove CloudWatch metriche applicative standard raccolte da Application Signals. Visualizza e monitora lo stato dell' indicatore del livello di servizio (SLI) dei tuoi servizi applicativi all'interno di un elenco di servizi e di una mappa topologica. Crea allarmi per tracciare e tenere traccia SLOs delle nuove metriche applicative standard raccolte da Application Signals. Visualizza una mappa della topologia delle applicazioni che Application Signals rileva automaticamente, che offre una rappresentazione visiva delle applicazioni, delle dipendenze e della loro connettività. Application Signals funziona con CloudWatch RUM , CloudWatchSynthetics canaries Amazon EC2 Auto Scaling e per visualizzare le pagine dei clienti AWS Service Catalog AppRegistry , Synthetics canaries e i nomi delle applicazioni all'interno di dashboard e mappe. Linguaggi e architetture supportati Application Signals supporta le applicazioni Java, Python, Node.js e .NET. Application Signals è supportato e testato su Amazon EKS, Amazon ECS e Amazon EC2. Sui cluster Amazon EKS, rileva automaticamente i nomi dei tuoi servizi e cluster. Su altre architetture, devi fornire i nomi dei servizi e degli ambienti quando abiliti tali servizi per Application Signals. Le istruzioni per abilitare Application Signals su Amazon EC2 dovrebbero funzionare su qualsiasi architettura che supporti l' CloudWatch agente e AWS Distro for OpenTelemetry. Tuttavia, le istruzioni non sono state testate su architetture diverse da Amazon ECS e Amazon. EC2 Regioni supportate Application Signals è supportato in tutte le Regioni commerciali ad eccezione di Canada occidentale (Calgary). Argomenti Funzionalità Autorizzazioni necessarie per Application Signals Sistemi supportati Configurazioni di instrumentazione supportate Abilitazione di Application Signals in un account (Facoltativo) Prova di Application Signals su un'app di esempio Abilitazione delle applicazioni sui cluster Amazon EKS Abilita le tue applicazioni su Amazon EC2 Abilitazione delle applicazioni in Amazon ECS Abilitazione delle applicazioni su Kubernetes Abilitazione delle applicazioni su Lambda Risoluzione dei problemi relativi all'installazione di Application Signals (Facoltativo) Configurazione di Application Signals Monitoraggio dell'integrità operativa delle applicazioni con Application Signals Metriche raccolte da Application Signals Metriche personalizzate con Application Signals Funzionalità Usa Application Signals per il monitoraggio quotidiano delle applicazioni : utilizza Application Signals all'interno della CloudWatch console, come parte del monitoraggio quotidiano delle applicazioni: Se avete creato obiettivi di livello di servizio (SLOs) per i vostri servizi, iniziate dalla pagina Service Level Objectives (SLO) . In questo modo puoi avere una visione immediata dell'integrità dei servizi, delle operazioni e delle dipendenze più importanti. Scegli il nome del servizio, dell'operazione o della dipendenza per uno SLO per aprire la pagina Dettagli del servizio e visualizzare informazioni dettagliate sul servizio durante la risoluzione dei problemi. Apri la pagina Servizi per vedere un riepilogo di tutti i tuoi servizi e visualizzare rapidamente i servizi con il tasso di errore o la latenza più elevati. Se li hai creati SLOs, guarda la tabella Servizi per vedere quali servizi hanno indicatori di livello di servizio non integri ()SLIs. Se un particolare servizio non è integro, selezionalo per aprire la pagina dei dettagli del servizio e visualizzare le operazioni del servizio, le dipendenze, i canali Synthetics e le richieste client. Seleziona un punto in un grafico per visualizzare le tracce correlate in modo da poter risolvere e identificare la causa principale dei problemi operativi. Se sono stati implementati nuovi servizi o le dipendenze sono cambiate, apri la Mappa dell'applicazione per esaminare la topologia dell'applicazione. Visualizza una mappa delle tue applicazioni che mostra la relazione tra client, canary Synthetics, servizi e dipendenze. Visualizza rapidamente lo stato dello SLI, visualizza i parametri chiave come il volume delle chiamate, la frequenza di errore e la latenza e approfondisci per visualizzare informazioni più dettagliate nella pagina dei dettagli del servizio . L'uso di Application Signals comporta costi. Per informazioni sui CloudWatch prezzi, consulta la pagina CloudWatch dei prezzi di Amazon . Nota Non è necessario abilitare Application Signals per utilizzare CloudWatch Synthetics o RUM. CloudWatch Tuttavia, Synthetics CloudWatch e RUM funzionano con Application Signals per offrire vantaggi quando si utilizzano queste funzionalità insieme. Application Signals su più account : con l'osservabilità tra più account di Application Signals, puoi monitorare e risolvere i problemi delle applicazioni che si estendono su più account all'interno di una singola regione. AWS Puoi utilizzare Amazon CloudWatch Observability Access Manager per configurare uno o più AWS account come account di monitoraggio. Fornirai all'account di monitoraggio la possibilità di visualizzare i dati nel tuo account di origine creando un sink all'interno di esso. Il sink viene utilizzato per creare un collegamento dal tuo account di origine al tuo account di monitoraggio. Per ulteriori informazioni, consulta CloudWatch osservabilità tra più account . Per il corretto funzionamento dell'osservabilità tra account di Application Signals, assicurati che i seguenti tipi di telemetria siano condivisi tramite Observability Access Manager. CloudWatch Servizi e obiettivi a livello di servizio di Application Signals () SLOs Metriche in Amazon CloudWatch Gruppi di log in Amazon CloudWatch Logs Tracce in AWS X-Ray Raggruppamento e filtraggio dinamici dei servizi : raggruppa e filtra i servizi con le funzionalità di raggruppamento dinamico di Application Signals. Aggrega automaticamente le metriche e i servizi all'interno SLIs dei gruppi, consentendoti di partire da una visione di gruppo e di approfondire aree problematiche specifiche. Application Signals fornisce due raggruppamenti predefiniti: il raggruppamento «Ambiente» che organizza per ambiente di servizio e il raggruppamento «Servizi correlati» che raggruppa i servizi in base alle loro dipendenze. Ad esempio, nel raggruppamento dei servizi correlati, se il Servizio A chiama il Servizio B, che chiama il Servizio C, vengono raggruppati nel Servizio A. Oltre ai raggruppamenti predefiniti, è possibile creare gruppi personalizzati selezionando servizi in linea con le esigenze organizzative, come Business unit o Team. Crea raggruppamenti personalizzati utilizzando AWS tag o OpenTelemetry attributi in linea con la struttura del team, i domini aziendali o i requisiti operativi. I raggruppamenti personalizzati consentono di organizzare i servizi in base ai flussi di lavoro specifici di monitoraggio e risoluzione dei problemi. Per ulteriori informazioni, consulta Configurazione dei gruppi personalizzati . Eventi di modifica : tieni traccia degli eventi di modifica in tutta l'applicazione con l'elaborazione automatica degli eventi di Application Signals. CloudTrail Monitora gli eventi di configurazione e distribuzione dei servizi e delle relative dipendenze, fornendo un contesto immediato per l'analisi operativa e la risoluzione dei problemi. Il rilevamento degli eventi di modifica è abilitato insieme all'abilitazione del rilevamento dei servizi tramite la CloudWatch console o l'API. StartDiscovery Per i servizi Amazon EKS, il rilevamento dell'implementazione richiede che i servizi Amazon EKS siano strumentati con l'SDK di strumentazione Application Signals. Gli eventi di modifica sono supportati per le seguenti risorse: Gruppo Autoscaling Cluster EKS EKS Workload (solo implementazioni) Cluster e servizio ECS Sistema di bilanciamento del carico ELB e gruppo target Funzione Lambda BedrockAgentCore Runtime e RuntimeEndpoint Risultati di audit automatizzati: scopri informazioni critiche attraverso i risultati di audit automatizzati di Application Signals. Il servizio analizza le applicazioni per segnalare osservazioni significative e potenziali problemi, semplificando l'analisi delle cause principali. Questi risultati automatizzati consolidano le tracce pertinenti, eliminando la necessità di navigare attraverso più clic. Il sistema di audit aiuta i team a identificare rapidamente i problemi e le loro cause sottostanti, consentendo una risoluzione più rapida dei problemi. Application Signals utilizza analisi avanzate per rilevare i modelli, evidenziare le inefficienze delle risorse e suggerire le opportunità di ottimizzazione. Agli esiti viene assegnata una priorità in base alla gravità e al potenziale impatto aziendale, in modo che i team possano concentrarsi innanzitutto sulle questioni più critiche. Ottieni consigli pratici per migliorare l'affidabilità e le prestazioni del servizio senza analisi manuali. JavaScript è disabilitato o non è disponibile nel tuo browser. Per usare la documentazione AWS, JavaScript deve essere abilitato. Consulta le pagine della guida del browser per le istruzioni. Convenzioni dei documenti Monitoraggio delle prestazioni delle applicazioni (APM) Autorizzazioni necessarie per Application Signals Questa pagina ti è stata utile? - Sì Grazie per averci comunicato che stiamo facendo un buon lavoro! Se hai un momento, ti invitiamo a dirci che cosa abbiamo fatto che ti è piaciuto così possiamo offrirti altri contenuti simili. Questa pagina ti è stata utile? - No Grazie per averci comunicato che questa pagina ha bisogno di essere modificata. Siamo spiacenti di non aver soddisfatto le tue esigenze. Se hai un momento, ti invitiamo a dirci come possiamo migliorare la documentazione. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/zh_cn/AmazonCloudWatch/latest/logs/LogsAnomalyDetection.html | 日志异常检测 - Amazon CloudWatch 日志 日志异常检测 - Amazon CloudWatch 日志 文档 Amazon CloudWatch 《用户指南》 异常和模式的严重性和优先级 异常可见性时间 抑制异常 常见问题 本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。 日志异常检测 您可以通过两种方式检测日志数据中的异常:创建用于持续监控的 日志异常检测器 ,或者使用 Logs Insights 查询中的 anomaly detection CloudWatch 命令进行按需分析。 日志异常检测器会扫描摄取到日志组中的日志事件,并自动查找日志数据中的异常。异常检测使用机器学习和模式识别来建立典型日志内容的基准。要进行按需分析,您可以使用 Logs Insigh CloudWatch ts 查询中的 anomaly detection 命令来识别时间序列数据中的异常模式。有关基于查询的异常检测的更多信息,请参阅 在 “ CloudWatch日志见解” 中使用异常检测 。 在为日志组创建异常检测器后,它使用日志组中过去两周的日志事件进行训练。训练时间可能长达 15 分钟。训练完成后,它开始分析传入的日志以识别异常,异常将显示在 CloudWatch 日志控制台中供您检查。 CloudWatch 日志模式识别通过识别日志中的静态和动态内容来提取日志模式。模式对于分析大型日志集很有用,因为大量日志事件通常可压缩成几个模式。 例如,请参阅以下三个日志事件示例。 2023-01-01 19:00:01 [INFO] Calling DynamoDB to store for ResourceID: 12342342k124-12345 2023-01-01 19:00:02 [INFO] Calling DynamoDB to store for ResourceID: 324892398123-1234R 2023-01-01 19:00:03 [INFO] Calling DynamoDB to store for ResourceID: 3ff231242342-12345 在上面的示例中,所有三个日志事件都遵循一种模式: <Date-1> <Time-2> [INFO] Calling DynamoDB to store for resource id <ResourceID-3> 模式内的字段称为 令牌 。模式内变化的字段(如请求 ID 或时间戳)称为 动态令牌 。为动态令牌找到的每个不同值称为 令牌值 。 如果 CloudWatch Logs 可以推断出动态令牌所代表的数据类型,则它会将该令牌显示为 < string - number > 。 string 是对令牌所代表的数据类型的描述。 number 显示了与其他动态代币相比,该代币在模式中的显示位置。 CloudWatch Logs 根据对包含该名称的日志事件内容的分析来分配名称的字符串部分。 如果 CloudWatch Logs 无法推断出动态令牌所代表的数据类型,则它会将该令牌显示为 <Token- number >,并 number 指明与其他动态令牌相比,该令牌在模式中的显示位置。 动态令牌的常见示例包括错误代码、IP 地址、时间戳和请求 IDs。 日志异常检测使用这些模式来查找异常。异常检测器模型训练期结束后,将根据已知趋势对日志进行评估。异常检测器将显著的波动标记为异常。 本章介绍了如何启用异常检测、查看异常、为日志异常检测器创建警报以及日志异常检测器发布的指标。它还描述了如何对异常检测器及其结果进行 AWS Key Management Service加密。 创建日志异常检测器不会产生费用。 异常和模式的严重性和优先级 日志异常检测器发现的每个异常都分配有 优先级 。发现的每种模式都分配有 严重性 。 优先级 是自动计算的,它基于模式的严重性级别以及与预期值的偏差量。例如,如果某个令牌值突然增加 500%,则即使异常的严重性为 NONE ,也可能会被指定为 HIGH 优先级。 严重性 仅基于模式中找到的关键字,例如 FATAL 、 ERROR 和 WARN 。如果未找到这些关键字,则模式的严重性将标记为 NONE 。 异常可见性时间 创建异常检测器时,请为其指定最长异常可见性期限。这是异常在控制台中显示并由 ListAnomalies API 操作返回的天数。在异常经过此时间段后,如果异常继续发生,则会自动接受为正常行为,并且异常检测器模型会停止将其标记为异常。 如果在创建异常检测器时不调整可见性时间,则默认使用 21 天。 抑制异常 发现异常后,您可以选择暂时或永久抑制它。抑制异常会导致异常检测器在您指定的时间内停止将此事件标记为异常。抑制异常时,您可以选择仅抑制该特定异常,或抑制与发现异常的模式相关的所有异常。 您仍然可以在控制台中查看被抑制的异常。您也可以选择停止抑制它们。 常见问题 是否 AWS 使用我的数据来训练机器学习算法以供其他客户 AWS 使用或供其他客户使用? 不是。 训练创建的异常检测模型基于日志组中的日志事件,并且仅在该日志组和该 AWS 账户中使用。 哪些类型的日志事件适合进行异常检测? 日志异常检测适用于: 应用程序日志和其他类型的日志,其中大多数日志条目符合典型模式。事件包含日志级别或严重性关键字(如 INFO 、 ERROR 和 DEBUG )的日志组尤其适合日志异常检测。 日志异常检测不适合: 记录具有极长 JSON 结构的事件,例如 CloudTrail 日志。模式分析仅分析日志行的前 1500 个字符,因此超出该限制的任何字符都将被跳过。 审计或访问日志(如 VPC 流日志)在异常检测方面的成功率也较低。异常检测旨在发现应用程序问题,因此它可能不太适合网络或访问异常。 为了帮助您确定异常检测器是否适用于某个日志组,请使用 CloudWatch 日志模式分析来查找该组中日志事件中的模式数量。如果模式的数量不超过 300 个,则异常检测可能会效果良好。有关模式分析的更多信息,请参阅 模式分析 。 什么会被标记为异常? 以下情况可能会导致日志事件被标记为异常: 具有日志组中以前未见过的模式的日志事件。 已知模式的显著变化。 具有一组离散的常用值的动态令牌的新值。 动态令牌的值出现次数的大幅变化。 虽然上述所有项都可能被标记为异常,但它们并不一定意味着应用程序性能不佳。例如, higher-than-usual许多 200 成功值可能会被标记为异常。在这种情况下,您可以考虑抑制这些不表示问题的异常。 被屏蔽的敏感数据会发生什么情况? 日志事件中被屏蔽为敏感数据的任何部分都不会进行异常扫描。有关屏蔽敏感数据的更多信息,请参阅 通过屏蔽帮助保护敏感的日志数据 。 Javascript 在您的浏览器中被禁用或不可用。 要使用 Amazon Web Services 文档,必须启用 Javascript。请参阅浏览器的帮助页面以了解相关说明。 文档惯例 对计划查询进行故障排除 在 “ CloudWatch日志见解” 中使用异常检测 此页面对您有帮助吗?- 是 感谢您对我们工作的肯定! 如果不耽误您的时间,请告诉我们做得好的地方,让我们做得更好。 此页面对您有帮助吗?- 否 感谢您告诉我们本页内容还需要完善。很抱歉让您失望了。 如果不耽误您的时间,请告诉我们如何改进文档。 | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/it_it/AmazonCloudWatch/latest/monitoring/AppSignals-CustomMetrics.html | Metriche personalizzate con Application Signals - Amazon CloudWatch Metriche personalizzate con Application Signals - Amazon CloudWatch Documentazione Amazon CloudWatch Guida per l’utente Configurazione di metriche personalizzate per Application Signals Visualizzazione delle metriche personalizzate in Application Signals Domande frequenti (FAQ) Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà. Metriche personalizzate con Application Signals Per monitorare le prestazioni e la disponibilità delle applicazioni, Application Signals raccoglie metriche standard (guasti, errori e latenza) e metriche di runtime dalle applicazioni scoperte dopo l'attivazione. Le metriche personalizzate aggiungono un contesto prezioso al monitoraggio delle applicazioni e aiutano a velocizzare la risoluzione dei problemi. Si possono utilizzare per: Personalizzare l'analisi dei dati di telemetria Identificare le cause principali dei problemi Prendere rapidamente decisioni aziendali e operative precise Application Signals consente di visualizzare e correlare le metriche personalizzate generate da un servizio con metriche standard e di runtime. Ad esempio, un'applicazione potrebbe emettere metriche relative alla dimensione delle richieste e al numero di errori nella cache. Queste metriche personalizzate forniscono informazioni più dettagliate sui problemi di prestazioni, aiutandoti a diagnosticare e risolvere più rapidamente i cali di disponibilità e i picchi di latenza. Argomenti Configurazione di metriche personalizzate per Application Signals Visualizzazione delle metriche personalizzate in Application Signals Domande frequenti (FAQ) Configurazione di metriche personalizzate per Application Signals Puoi generare metriche personalizzate dalla tua applicazione utilizzando due metodi: metriche OpenTelemetry e metriche di intervallo . Argomenti Metriche OpenTelemetry Metriche di intervallo Metriche OpenTelemetry Per utilizzare metriche OpenTelemetry personalizzate con Application Signals, è necessario utilizzare l'agente CloudWatch oppure il raccoglitore OpenTelemetry Collector. Le metriche OpenTelemetry personalizzate consentono di creare ed esportare le metriche direttamente dal codice dell'applicazione utilizzando l'SDK OpenTelemetry Metrics. Integra il servizio con Application Signals. Configura l'agente o il raccoglitore. Quando si utilizza l'agente CloudWatch, è necessario configurare metrics_collected con un otlp . Ad esempio, cloudwatch-config.json { "traces": { "traces_collected": { "application_signals": { } } }, "logs": { "metrics_collected": { "application_signals": { }, "otlp": { "grpc_endpoint": "0.0.0.0:4317", "http_endpoint": "0.0.0.0:4318" } } } } Quando si utilizza il raccoglitore OpenTelemetry, configura una pipeline di metriche. È necessario utilizzare CloudWatch EMF Exporter per il raccoglitore OpenTelemetry e abilitare gli Attributi di risorsa per le etichette delle metriche . Si consiglia di eseguire la configurazione di dimension_rollup_option: NoDimensionRollup per evitare l'emissione di molte aggregazioni di metriche. Ad esempio, config.yaml : receivers: otlp: protocols: grpc: endpoint: 0.0.0.0:4317 http: endpoint: 0.0.0.0:4318 exporters: awsemf: region: $REGION namespace: $NAMESPACE log_group_name:$LOG_GROUP_NAME resource_to_telemetry_conversion: enabled: true dimension_rollup_option: "NoDimensionRollup" otlphttp/traces: compression: gzip traces_endpoint: https://xray.$REGION.amazonaws.com/v1/traces auth: authenticator: sigv4auth/traces extensions: sigv4auth/logs: region: "$REGION" service: "logs" sigv4auth/traces: region: "$REGION" service: "xray" processors: batch: service: telemetry: extensions: [sigv4auth/logs, sigv4auth/traces] pipelines: metrics: receivers: [otlp] processors: [batch] exporters: [awsemf] traces: receivers: [otlp] processors: [batch] exporters: [otlphttp/traces] Configura l'ambiente. Quando sono presenti più servizi con lo stesso nome di servizio, per correlare accuratamente le metriche di Application Signals al nome del servizio corretto, si consiglia di configurare l'attributo di risorsa deployment.environment.name . La configurazione di questo attributo di risorsa viene generalmente eseguita tramite le variabili di ambiente. OTEL_RESOURCE_ATTRIBUTES="service.name=$YOUR_SVC_NAME,deployment.environment.name=$YOUR_ENV_NAME" Configura l'esportazione delle metriche nell'agente CloudWatch o nel raccoglitore OpenTelemetry. Puoi utilizzare uno dei seguenti approcci: (Consigliato) Pipeline di esportazione personalizzata: nel codice dell'applicazione, crea un MeterProvider dedicato che esporta verso l'endpoint dell'agente o del raccoglitore configurato. Per esempio: Resource resource = Resource.getDefault().toBuilder() .put(AttributeKey.stringKey("service.name"), serviceName) .put(AttributeKey.stringKey("deployment.environment.name"), environment) .build(); MetricExporter metricExporter = OtlpHttpMetricExporter.builder() .setEndpoint("http://localhost:4318/v1/metrics") .build(); MetricReader metricReader = PeriodicMetricReader.builder(metricExporter) .setInterval(Duration.ofSeconds(10)) .build() SdkMeterProvider meterProvider = SdkMeterProvider.builder() .setResource(resource) .registerMetricReader() .build(); Meter meter = meterProvider.get("myMeter"); Esportazione basata su agente: configura le variabili di ambiente dell'agente OTEL_METRICS_EXPORTER e OTEL_EXPORTER_OTLP_METRICS_ENDPOINT . Per esempio: OTEL_METRICS_EXPORTER=otlp OTEL_EXPORTER_OTLP_METRICS_ENDPOINT=http://localhost:4318/v1/metrics Nel codice dell'applicazione, fai affidamento al MeterProvider globale creato dall'agente. Per esempio: Meter meter = GlobalOpenTelemetry.getMeter("myMeter"); Utilizzando OTEL Metrics SDK nel codice dell'applicazione, aggiungi le metriche OTEL. Ad esempio, per aggiungere le metriche OTEL in Python: counter = meter.counterBuilder("myCounter").build(); counter.add(value); counter.add(value, Attributes.of(AttributeKey.stringKey("Operation"), "myOperation")); L'aggiunta dell'attributo Operation non è obbligatoria, ma può essere utile per correlare le operazioni del servizio Application Signals alle metriche OpenTelemetry personalizzate. Metriche di intervallo Le metriche di intervallo personalizzate attualmente funzionano solo con Transaction Search. Con le metriche di intervallo personalizzate, è possibile: Creare metriche utilizzando i filtri delle metriche Elaborare gli attributi di intervallo aggiunti nel codice dell'applicazione Utilizzare l'SDK OpenTelemetry Traces per l'implementazione Abilitare il monitoraggio di Application Signals con Transaction Search. Per ulteriori informazioni, consulta Transaction Search . Per garantire un campionamento delle metriche al 100%, si consiglia di inviare il 100% degli intervalli all'endpoint. Aggiungi gli attributi di intervallo utilizzando l' SDK OTEL Traces . Puoi procedere in due modi: [Consigliato] Aggiungi attributi agli intervalli generati automaticamente. Per esempio: Span.current().setAttribute("myattribute", value); Aggiungi attributi agli intervalli generati manualmente. Per esempio: Span span = tracer.spanBuilder("myspan").startSpan(); try (Scope scope = span.makeCurrent()) { span.setAttribute("myattribute", value); } Crea un filtro di metriche con i valori seguenti. Per informazioni su come creare un filtro di metriche, consulta Create a metric filter for a log group . Gruppo di log: aws/spans Modello di filtro: { $.attributes.['myattribute'] = * } Nome della metrica: myattribute (i valori devono corrispondere esattamente; in caso contrario, la correlazione tra gli intervalli non funzionerà) Valore della metrica: $.attributes.['myattribute'] Dimensioni: nome del campo: Service, valore del campo: $.attributes.['aws.local.service'], nome del campo: Environment, valore del campo: $.attributes.['aws.local.environment'] e nome del campo: Operation, valore del campo: $.attributes.['aws.local.operation'] Nota Quando aggiungi attributi agli intervalli generati manualmente, non puoi impostare Operation perché aws.local.operation non sarà presente nei dati dell'intervallo. Visualizzazione delle metriche personalizzate in Application Signals Ora puoi visualizzare metriche personalizzate per servizi e operazioni nella console Application Signals: Seleziona un servizio dall'elenco Servizi per visualizzare la nuova scheda Metriche correlate Visualizza le metriche standard, le metriche di runtime e le metriche correlate per il servizio selezionato Filtra e seleziona più metriche dall'elenco Rappresenta graficamente le metriche selezionate per identificare le correlazioni e le cause principali dei problemi Per ulteriori informazioni sulle metriche correlate, consulta Visualizzazione di Metriche correlate . Domande frequenti (FAQ) Cosa succede se non aggiungo la configurazione per l'ambiente per le metriche personalizzate? Application Signals configura l'attributo di risorsa deployment.environment.name per disambiguare le applicazioni. Senza disambiguazione, Application Signals non è in grado di correlare le metriche personalizzate generate da due servizi diversi con lo stesso nome al servizio corretto. Per aggiungere una configurazione di ambiente all'applicazione, consulta Metriche OpenTelemetry . Sono previsti dei limiti per i filtri delle metriche? Puoi creare solo fino a 100 filtri delle metriche per gruppo di log di CloudWatch Logs. Ogni metrica può avere un massimo di 3 dimensioni. Puoi visualizzare i limiti per i filtri delle metriche qui: Metriche OpenTelemetry . Perché i grafici delle metriche non vengono visualizzati nella tabella delle metriche? La soluzione dipende dal tipo di metrica: Metriche personalizzate: consulta Configurazione di metriche personalizzate per Application Signals per verificare la configurazione delle metriche Metriche standard o di runtime: consulta Troubleshooting your Application Signals installation JavaScript è disabilitato o non è disponibile nel tuo browser. Per usare la documentazione AWS, JavaScript deve essere abilitato. Consulta le pagine della guida del browser per le istruzioni. Convenzioni dei documenti Metriche raccolte da Application Signals Obiettivi del livello di servizio (SLO) Questa pagina ti è stata utile? - Sì Grazie per averci comunicato che stiamo facendo un buon lavoro! Se hai un momento, ti invitiamo a dirci che cosa abbiamo fatto che ti è piaciuto così possiamo offrirti altri contenuti simili. Questa pagina ti è stata utile? - No Grazie per averci comunicato che questa pagina ha bisogno di essere modificata. Siamo spiacenti di non aver soddisfatto le tue esigenze. Se hai un momento, ti invitiamo a dirci come possiamo migliorare la documentazione. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/id_id/AmazonCloudWatch/latest/monitoring/what-is-network-monitor.html | Menggunakan Monitor Sintetis Jaringan - Amazon CloudWatch Menggunakan Monitor Sintetis Jaringan - Amazon CloudWatch Dokumentasi Amazon CloudWatch Panduan Pengguna Fitur utama Terminologi dan komponen Persyaratan dan pembatasan Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris. Menggunakan Monitor Sintetis Jaringan Network Synthetic Monitor memberikan visibilitas ke kinerja jaringan yang menghubungkan aplikasi yang AWS dihosting ke tujuan lokal, dan memungkinkan Anda mengidentifikasi sumber penurunan kinerja jaringan dalam hitungan menit. Network Synthetic Monitor sepenuhnya dikelola oleh AWS, dan tidak memerlukan agen terpisah pada sumber daya yang dipantau. Gunakan Network Synthetic Monitor untuk memvisualisasikan kehilangan paket dan latensi koneksi jaringan hybrid Anda, dan atur peringatan dan ambang batas. Kemudian, berdasarkan informasi ini, Anda dapat mengambil tindakan untuk meningkatkan pengalaman pengguna akhir Anda. Network Synthetic Monitor ditujukan untuk operator jaringan dan pengembang aplikasi yang menginginkan wawasan real-time tentang kinerja jaringan. Fitur utama Network Synthetic Monitor Gunakan Network Synthetic Monitor untuk membandingkan lingkungan jaringan hybrid Anda yang berubah dengan metrik kehilangan paket dan latensi real-time yang berkelanjutan. Saat Anda terhubung dengan menggunakan AWS Direct Connect, Network Synthetic Monitor dapat membantu Anda mendiagnosis degradasi jaringan dengan cepat dalam AWS jaringan dengan indikator kesehatan jaringan (NHI), yang ditulis oleh Network Synthetic Monitor ke akun Amazon CloudWatch Anda. Metrik NHI adalah nilai biner, berdasarkan skor probabilistik tentang apakah degradasi jaringan ada di dalamnya. AWS Network Synthetic Monitor menyediakan pendekatan agen yang dikelola sepenuhnya untuk pemantauan, sehingga Anda tidak perlu menginstal agen baik di VPCs maupun di tempat. Untuk memulai, Anda hanya perlu menentukan subnet VPC dan alamat IP lokal. Anda dapat membuat koneksi pribadi antara VPC dan sumber daya Network Synthetic Monitor dengan menggunakan. AWS PrivateLink Untuk informasi selengkapnya, lihat Menggunakan CloudWatch, CloudWatch Synthetics, dan CloudWatch Network Monitoring dengan antarmuka VPC endpoint . Network Synthetic Monitor menerbitkan metrik ke CloudWatch Metrik. Anda dapat membuat dasbor untuk melihat metrik, dan juga membuat ambang batas dan alarm yang dapat ditindaklanjuti pada metrik yang spesifik untuk aplikasi Anda. Untuk informasi selengkapnya, lihat Bagaimana Network Synthetic Monitor bekerja . Terminologi dan komponen Network Synthetic Monitor Probe — Probe adalah lalu lintas yang dikirim dari sumber daya yang AWS di-host ke alamat IP tujuan lokal. Metrik Network Synthetic Monitor yang diukur oleh probe ditulis ke CloudWatch akun Anda untuk setiap probe yang dikonfigurasi di monitor. Monitor — Monitor menampilkan kinerja jaringan dan informasi kesehatan lainnya untuk lalu lintas yang telah Anda buat probe Network Synthetic Monitor. Anda menambahkan probe sebagai bagian dari pembuatan monitor, dan kemudian Anda dapat melihat informasi metrik kinerja jaringan menggunakan monitor. Saat Anda membuat monitor untuk aplikasi, Anda menambahkan sumber daya yang AWS dihosting sebagai sumber jaringan. Network Synthetic Monitor kemudian membuat daftar semua kemungkinan probe antara sumber daya yang AWS dihosting dan alamat IP tujuan Anda. Anda memilih tujuan yang ingin Anda pantau lalu lintas. AWS Sumber jaringan — Sumber AWS jaringan adalah AWS sumber asal probe monitor, yang merupakan subnet di salah satu sumber Anda. VPCs Tujuan — Tujuan adalah target di jaringan lokal Anda untuk sumber AWS jaringan. Tujuan adalah kombinasi dari alamat IP lokal Anda, protokol jaringan, port, dan ukuran paket jaringan. IPv4 dan IPv6 alamat keduanya didukung. Persyaratan dan batasan Network Synthetic Monitor Berikut ini merangkum persyaratan dan batasan untuk Network Synthetic Monitor. Untuk kuota (atau batas) tertentu, lihat Monitor Sintetis Jaringan . Subnet monitor harus dimiliki oleh akun yang sama dengan monitor. Network Synthetic Monitor tidak menyediakan failover jaringan otomatis jika terjadi masalah AWS jaringan. Ada biaya untuk setiap probe yang Anda buat. Untuk detail harga, silakan lihat Harga untuk Monitor Sintetis Jaringan . Javascript dinonaktifkan atau tidak tersedia di browser Anda. Untuk menggunakan Dokumentasi AWS, Javascript harus diaktifkan. Lihat halaman Bantuan browser Anda untuk petunjuk. Konvensi Dokumen Peran tertaut layanan Bagaimana Network Synthetic Monitor bekerja Apakah halaman ini membantu Anda? - Ya Terima kasih telah memberitahukan bahwa hasil pekerjaan kami sudah baik. Jika Anda memiliki waktu luang, beri tahu kami aspek apa saja yang sudah bagus, agar kami dapat menerapkannya secara lebih luas. Apakah halaman ini membantu Anda? - Tidak Terima kasih telah memberi tahu kami bahwa halaman ini perlu ditingkatkan. Maaf karena telah mengecewakan Anda. Jika Anda memiliki waktu luang, beri tahu kami bagaimana dokumentasi ini dapat ditingkatkan. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/zh_tw/AmazonCloudWatch/latest/monitoring/CloudWatch-Application-Monitoring-Sections.html | 應用程式訊號 - Amazon CloudWatch 應用程式訊號 - Amazon CloudWatch 文件 Amazon CloudWatch 使用者指南 功能 本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。 應用程式訊號 CloudWatch Application Signals 可協助您監控並改善 AWS上的應用程式效能。它會自動從您在 Amazon EC2、Amazon ECS、Lambda 等服務上執行的應用程式中收集資料。可以將 CloudWatch Application Signals 用於以下用途: 即時監控應用程式運作狀態 對照業務目標追蹤效能 檢視服務與相依項之間的關係 快速識別並解決效能問題 啟用 Application Signals 可自動收集應用程式的指標和追蹤,並顯示呼叫量、可用性、延遲、故障和錯誤等關鍵指標。快速查看和分類目前的操作運作狀態,以及您的應用程式是否能實現其長期效能目標,無需撰寫自訂程式碼或建立儀表板。 使用 Application Signals 建立和監控 服務水準目標 (SLO) 。輕鬆建立並追蹤與 CloudWatch 指標相關的 SLO 狀態,包括 Application Signals 收集的新標準應用程式指標。在服務清單和拓撲地圖中查看並追蹤應用程式服務的 服務水準指標 (SLI) 狀態。建立警示以追蹤您的 SLO,並追蹤 Application Signals 收集的新標準應用程式指標。 查看 Application Signals 自動探索的應用程式拓撲地圖,以視覺化方式呈現應用程式、相依性及其連線能力。 Application Signals 與 CloudWatch RUM 、 CloudWatch Synthetics Canary 、 AWS Service Catalog AppRegistry 以及 Amazon EC2 Auto Scaling 搭配使用,並在儀表板和地圖中顯示用戶端頁面、Synthetics Canary 和應用程式名稱。 支援的語言和架構 Application Signals 支援 Java、Python、Node.js 和 .NET 應用程式。 Application Signals 在 Amazon EKS、Amazon ECS 和 Amazon EC2 上受到支援和測試。在 Amazon EKS 叢集上,它會自動探索服務和叢集的名稱。在其他架構上,當您為 Application Signals 啟用這些服務時,必須提供服務和環境的名稱。 在 Amazon EC2 上啟用 Application Signals 的指示,應該適用於支援 CloudWatch 代理程式和 AWS Distro for OpenTelemetry 的任何架構。但是,這些指示尚未在 Amazon ECS 和 Amazon EC2 以外的架構上進行測試。 支援的區域 除加拿大西部 (卡加利) 之外的每個商業區域都支援 Application Signals。 主題 功能 Application Signals 所需的許可 支援的系統 支援的檢測設定 在您的帳戶中啟用 Application Signals (選用) 使用範例應用程式試用 Application Signals 在 Amazon EKS 叢集上啟用 Application Signals 在 Amazon EC2 上啟用您的應用程式 在 Amazon ECS 上啟用您的應用程式 在 Kubernetes 上啟用您的應用程式 在 Lambda 上啟用應用程式 疑難排解 Application Signals 安裝 (選用) 設定 Application Signals 使用 Application Signals 監控應用程式的運作狀態 Application Signals 收集的指標 使用 Application Signals 自訂指標 功能 使用 Application Signals 進行每日應用程式監控 – 在 CloudWatch 主控台中使用 Application Signals,作為每日應用程式監控的一部分: 如果已為您的服務建立服務水準目標 (SLO),請從 服務水準目標 (SLO) 頁面開始。這可讓您即刻檢視最重要服務和操作的運作狀態。選擇 SLO 的服務、操作或相依項名稱,開啟 服務詳細資訊 頁面,並在疑難排解問題時查看詳細的服務資訊。 開啟 服務 頁面以查看所有服務的摘要,並快速查看故障率或延遲最高的服務。如果已建立 SLO,請查看「服務」資料表,了解哪些服務具有運作狀態不佳的服務水準指標 (SLI)。如果特定服務的運作狀態不佳,請選取該服務以開啟 服務詳細資訊 頁面,並查看服務操作、相依性、Synthetics Canary 和用戶端請求。在圖表中選取一個點以查看相關的追蹤,以便可以疑難排解並識別操作問題的根本原因。 如果已部署新服務或相依項已變更,請開啟 Application Map 以檢查您的應用程式拓撲。查看應用程式的地圖,它可顯示用戶端、Synthetics Canary、服務和相依性之間的關係。快速查看 SLI 運作狀態,檢視呼叫量、故障率和延遲等關鍵指標,並深入查看 服務詳細資訊 頁面中的更多詳細資訊。 使用 Application Signals 會產生費用。如需 CloudWatch 定價的資訊,請參閱 Amazon CloudWatch 定價 。 注意 不需要啟用 Application Signals 即可使用 CloudWatch Synthetics 或 CloudWatch RUM。但是,Synthetics 和 CloudWatch RUM 可與 Application Signals 搭配使用,以便您在一起使用這些功能時提供好處。 Application Signals 跨帳戶 – 透過 Application Signals 跨帳戶可觀測性,您可以監控和疑難排解單一區域中跨多個 AWS 帳戶的應用程式。 您可以使用 Amazon CloudWatch Observability Access Manager 將一或多個 AWS 帳戶設定為監控帳戶。您可以在監控帳戶中建立接收器,讓監控帳戶能夠檢視來源帳戶中的資料。可以使用此接收器建立從來源帳戶到監控帳戶的連結。如需詳細資訊,請參閱 CloudWatch 跨帳戶可觀測性功能 。 為使 Application Signals 跨帳戶可觀測性正確發揮作用,請確保透過 CloudWatch Observability Access Manager 共用下列遙測類型。 Application Signals 服務和服務層級目標 (SLO) Amazon CloudWatch 中的指標 Amazon CloudWatch Logs 中的日誌群組 AWS X-Ray 中的追蹤 動態服務分組和篩選 :使用 Application Signals 的動態分組功能來分組和篩選服務。自動彙總群組內服務的指標和 SLI,讓您從群組檢視開始,深入探究有問題的具體區域。Application Signals 提供兩種預設分組:依服務環境整理的「環境」分組,以及根據其相依性分組服務的「相關服務」分組。例如,在相關服務群組中,如果服務 A 呼叫服務 B,而該服務 B 呼叫服務 C,則會在服務 A 下分組。除了預設群組之外,透過選取符合您組織需求的服務來建立自訂群組,例如業務單位或團隊。 使用標籤 AWS 或 OpenTelemetry 屬性建立自訂分組,以符合您的團隊結構、業務網域或營運需求。自訂分組可讓您根據特定監控和疑難排解工作流程來整合服務。如需詳細資訊,請參閱 設定自訂群組 。 變更事件 – 使用 Application Signals 自動處理 CloudTrail 事件,追蹤整個應用程式的變更事件。監控 服務的組態和部署事件及其相依性,提供操作分析和故障診斷的立即內容。透過 CloudWatch 主控台或 StartDiscovery API 啟用服務探索,即可啟用變更事件偵測。對於 Amazon EKS 服務,部署偵測要求使用 Application Signals 檢測 SDK 檢測 Amazon EKS 服務。 下列資源支援變更事件: Autoscaling 群組 EKS 叢集 EKS 工作負載 (僅限部署) ECS 叢集和服務 ELB 負載平衡器和目標群組 Lambda 功能 BedrockAgentCore 執行期和RuntimeEndpoint 自動化稽核問題清單 – 透過 Application Signals 的自動化稽核問題清單探索關鍵洞見。此服務會分析您的應用程式,以報告重大觀察和潛在問題,簡化根本原因分析。這些自動化問題清單會合併相關追蹤,無需多次點選即可瀏覽。稽核系統可協助團隊快速識別問題及其根本原因,從而更快解決問題。 Application Signals 會運用先進分析技術,偵測模式、凸顯資源效率低下之處,並提出最佳化方案。系統將依據嚴重程度與潛在業務影響排定調查結果的優先級,以便團隊優先處理最關鍵的問題。無需人工分析即可獲得有關如何提高服務可靠性和效能的可行建議。 您的瀏覽器已停用或無法使用 Javascript。 您必須啟用 Javascript,才能使用 AWS 文件。請參閱您的瀏覽器說明頁以取得說明。 文件慣用形式 應用程式效能監控 (APM) Application Signals 所需的許可 此頁面是否有幫助? - 是 感謝您,讓我們知道我們做得很好! 若您有空,歡迎您告知我們值得讚許的地方,這樣才能保持良好服務。 此頁面是否有幫助? - 否 感謝讓我們知道此頁面仍須改善。很抱歉,讓您失望。 若您有空,歡迎您提供改善文件的方式。 | 2026-01-13T09:29:26 |
https://git-scm.com/book/cs/v2/Git-Tools-Revision-Selection | Git - Revision Selection About Trademark Learn Book Cheat Sheet Videos External Links Tools Command Line GUIs Hosting Reference Install Community This book is available in English . Full translation available in azərbaycan dili , български език , Deutsch , Español , فارسی , Français , Ελληνικά , 日本語 , 한국어 , Nederlands , Русский , Slovenščina , Tagalog , Українська , 简体中文 , Partial translations available in Čeština , Македонски , Polski , Српски , Ўзбекча , 繁體中文 , Translations started for Беларуская , Indonesian , Italiano , Bahasa Melayu , Português (Brasil) , Português (Portugal) , Svenska , Türkçe . The source of this book is hosted on GitHub. Patches, suggestions and comments are welcome. Chapters ▾ 1. Úvod 1.1 Správa verzí 1.2 Stručná historie systému Git 1.3 Základy systému Git 1.4 Příkazový řádek 1.5 Instalace systému Git 1.6 První nastavení systému Git 1.7 Získání nápovědy 1.8 Shrnutí 2. Základy práce se systémem Git 2.1 Získání repozitáře Git 2.2 Nahrávání změn do repozitáře 2.3 Zobrazení historie revizí 2.4 Návrat do předchozího stavu 2.5 Práce se vzdálenými repozitáři 2.6 Používání značek 2.7 Aliasy v Gitu 2.8 Shrnutí 3. Větve v systému Git 3.1 Větve v kostce 3.2 Základy větvení a slučování 3.3 Správa větví 3.4 Postupy při práci s větvemi 3.5 Vzdálené větve 3.6 Přeskládání 3.7 Shrnutí 4. Git na serveru 4.1 Protokoly 4.2 Zprovoznění Gitu na serveru 4.3 Generování veřejného klíče SSH 4.4 Nastavení serveru 4.5 Démon Git 4.6 Chytrý HTTP 4.7 GitWeb 4.8 GitLab 4.9 Možnosti hostování u třetí strany 4.10 Shrnutí 5. Distribuovaný Git 5.1 Distribuované pracovní postupy 5.2 Přispívání do projektu 5.3 Správa projektu 5.4 Shrnutí 6. GitHub 6.1 Zřízení účtu a úprava konfigurace 6.2 Přispívání do projektu 6.3 Maintaining a Project 6.4 Managing an organization 6.5 Scripting GitHub 6.6 Shrnutí 7. Git Tools 7.1 Revision Selection 7.2 Interactive Staging 7.3 Stashing and Cleaning 7.4 Signing Your Work 7.5 Searching 7.6 Rewriting History 7.7 Reset Demystified 7.8 Advanced Merging 7.9 Rerere 7.10 Ladění v systému Git 7.11 Submodules 7.12 Bundling 7.13 Replace 7.14 Credential Storage 7.15 Shrnutí 8. Customizing Git 8.1 Git Configuration 8.2 Atributy Git 8.3 Git Hooks 8.4 An Example Git-Enforced Policy 8.5 Shrnutí 9. Git a ostatní systémy 9.1 Git as a Client 9.2 Migrating to Git 9.3 Shrnutí 10. Git Internals 10.1 Plumbing and Porcelain 10.2 Git Objects 10.3 Git References 10.4 Balíčkové soubory 10.5 The Refspec 10.6 Přenosové protokoly 10.7 Správa a obnova dat 10.8 Environment Variables 10.9 Shrnutí A1. Appendix A: Git in Other Environments A1.1 Graphical Interfaces A1.2 Git in Visual Studio A1.3 Git in Eclipse A1.4 Git in Bash A1.5 Git in Zsh A1.6 Git in Powershell A1.7 Shrnutí A2. Appendix B: Embedding Git in your Applications A2.1 Command-line Git A2.2 Libgit2 A2.3 JGit A3. Appendix C: Git Commands A3.1 Setup and Config A3.2 Getting and Creating Projects A3.3 Basic Snapshotting A3.4 Branching and Merging A3.5 Sharing and Updating Projects A3.6 Inspection and Comparison A3.7 Debugging A3.8 Patching A3.9 Email A3.10 External Systems A3.11 Administration A3.12 Plumbing Commands 2nd Edition 7.1 Git Tools - Revision Selection Do této chvíle jste stačili poznat většinu každodenních příkazů a pracovních postupů, které budete při práci se zdrojovým kódem potřebovat k ovládání a správě repozitáře Git. Zvládli jste základní úkony sledování a zapisování souborů a pochopili jste přednosti přípravy souborů k zapsání i snadného vytváření a začleňování větví. Nyní poznáte několik velmi účinných nástrojů, které vám Git nabízí. Pravděpodobně je nebudete používat každý den, ale přesto se vám mohou čas od času hodit. Revision Selection Systém Git umožňuje určit jednotlivé revize nebo interval revizí několika způsoby. Není nezbytně nutné, abyste je všechny znali, ale mohou být užitečné. Jednotlivé revize Revizi můžete samozřejmě specifikovat na základě otisku SHA-1, jenž jí byl přidělen. Existují však i uživatelsky příjemnější způsoby, jak označit konkrétní revizi. Tato část uvede několik různých způsobů, jak lze určit jednu konkrétní revizi. Short SHA-1 Git is smart enough to figure out what commit you meant to type if you provide the first few characters, as long as your partial SHA-1 is at least four characters long and unambiguous – that is, only one object in the current repository begins with that partial SHA-1. Pokud si chcete například prohlédnout konkrétní revizi, řekněme, že spustíte příkaz git log a určíte revizi, do níž jste vložili určitou funkci: $ git log commit 734713bc047d87bf7eac9674765ae793478c50d3 Author: Scott Chacon <schacon@gmail.com> Date: Fri Jan 2 18:32:33 2009 -0800 fixed refs handling, added gc auto, updated tests commit d921970aadf03b3cf0e71becdaab3147ba71cdef Merge: 1c002dd... 35cfb2b... Author: Scott Chacon <schacon@gmail.com> Date: Thu Dec 11 15:08:43 2008 -0800 Merge commit 'phedders/rdocs' commit 1c002dd4b536e7479fe34593e72e6c6c1819e53b Author: Scott Chacon <schacon@gmail.com> Date: Thu Dec 11 14:58:32 2008 -0800 added some blame and merge stuff In this case, choose 1c002dd... . If you git show that commit, the following commands are equivalent (assuming the shorter versions are unambiguous): $ git show 1c002dd4b536e7479fe34593e72e6c6c1819e53b $ git show 1c002dd4b536e7479f $ git show 1c002d Git dokáže identifikovat krátkou, jednoznačnou zkratku hodnoty SHA-1. Zadáte-li k příkazu git log parametr --abbrev-commit , výstup bude používat kratší hodnoty, ale pouze v jednoznačném tvaru. Standardně se používá sedm znaků, avšak je-li to kvůli jednoznačnosti hodnoty SHA-1 nezbytné, bude použito znaků více: $ git log --abbrev-commit --pretty=oneline ca82a6d changed the version number 085bb3b removed unnecessary test code a11bef0 first commit Osm až deset znaků většinou bohatě stačí, aby byla hodnota v rámci projektu jednoznačná. As an example, the Linux kernel, which is a pretty large project with over 450k commits and 3.6 million objects, has no two objects whose SHA-1s overlap more than the first 11 characters. Note A SHORT NOTE ABOUT SHA-1 Někteří uživatelé bývají zmateni, že mohou mít v repozitáři — shodou okolností — dva objekty, které mají stejnou hodnotu SHA-1 otisku. Co teď? Pokud náhodou zapíšete objekt, který má stejnou hodnotu SHA-1 otisku jako předchozí objekt ve vašem repozitáři, Git už uvidí předchozí objekt v databázi Git a bude předpokládat, že už byl zapsán. Pokud se někdy v budoucnosti pokusíte znovu provést checkout tohoto objektu, vždy dostanete data prvního objektu. Měli bychom však také říci, jak moc je nepravděpodobné, že taková situace nastane. Otisk SHA-1 má 20 bytů, neboli 160 bitů. The number of randomly hashed objects needed to ensure a 50% probability of a single collision is about 2 80 (the formula for determining collision probability is p = (n(n-1)/2) * (1/2^160)) . 2 80 is 1.2 x 10 24 or 1 million billion billion. To je 1200násobek počtu všech zrnek písku na celé Zemi. Abyste si udělali představu, jak je nepravděpodobné, že dojde ke kolizi hodnot SHA-1, připojujeme jeden malý příklad. If all 6.5 billion humans on Earth were programming, and every second, each one was producing code that was the equivalent of the entire Linux kernel history (3.6 million Git objects) and pushing it into one enormous Git repository, it would take roughly 2 years until that repository contained enough objects to have a 50% probability of a single SHA-1 object collision. To už je pravděpodobnější, že všichni členové vašeho programovacího týmu budou během jedné noci v navzájem nesouvisejících incidentech napadeni a zabiti smečkou vlků. Branch References The most straightforward way to specify a commit requires that it has a branch reference pointed at it. V takovém případě můžete použít název větve v libovolném příkazu Git, který vyžaduje objekt revize nebo hodnotu SHA-1. Pokud chcete například zobrazit objekt poslední revize větve, můžete využít některý z následujících příkazů (za předpokladu, že větev topic1 ukazuje na ca82a6d ): $ git show ca82a6dff817ec66f44342007202690a93763949 $ git show topic1 If you want to see which specific SHA-1 a branch points to, or if you want to see what any of these examples boils down to in terms of SHA-1s, you can use a Git plumbing tool called rev-parse . You can see Git Internals for more information about plumbing tools; basically, rev-parse exists for lower-level operations and isn’t designed to be used in day-to-day operations. Může se však hodit, až budete jednou potřebovat zjistit, co se doopravdy odehrává. Tehdy můžete na svou větev spustit příkaz rev-parse : $ git rev-parse topic1 ca82a6dff817ec66f44342007202690a93763949 RefLog Shortnames One of the things Git does in the background while you’re working away is keep a “reflog” – a log of where your HEAD and branch references have been for the last few months. Svůj reflog si můžete nechat zobrazit příkazem git reflog : $ git reflog 734713b HEAD@{0}: commit: fixed refs handling, added gc auto, updated d921970 HEAD@{1}: merge phedders/rdocs: Merge made by recursive. 1c002dd HEAD@{2}: commit: added some blame and merge stuff 1c36188 HEAD@{3}: rebase -i (squash): updating HEAD 95df984 HEAD@{4}: commit: # This is a combination of two commits. 1c36188 HEAD@{5}: rebase -i (squash): updating HEAD 7e05da5 HEAD@{6}: rebase -i (pick): updating HEAD Pokaždé, když je z nějakého důvodu aktualizován vrchol větve, Git tuto informaci uloží v dočasné historii reflog. Pomocí těchto dat lze rovněž specifikovat starší revize. Chcete-li zobrazit pátou poslední hodnotu ukazatele HEAD svého repozitáře, použijte referenci @{n} z výstupu reflog: $ git show HEAD@{5} Tuto syntaxi můžete použít také k zobrazení pozice, na níž se větev nacházela před určitou dobou. Chcete-li například zjistit, kde byla vaše větev master včera (yesterday), můžete zadat příkaz: $ git show master@{yesterday} Git vám ukáže, kde se vrchol větve nacházel včera. Tato možnost funguje pouze pro data, jež jsou dosud v záznamu reflog. Nemůžete ji proto použít pro revize starší než několik měsíců. Chcete-li zobrazit informace záznamu reflog ve formátu výstupu git log , zadejte příkaz git log -g : $ git log -g master commit 734713bc047d87bf7eac9674765ae793478c50d3 Reflog: master@{0} (Scott Chacon <schacon@gmail.com>) Reflog message: commit: fixed refs handling, added gc auto, updated Author: Scott Chacon <schacon@gmail.com> Date: Fri Jan 2 18:32:33 2009 -0800 fixed refs handling, added gc auto, updated tests commit d921970aadf03b3cf0e71becdaab3147ba71cdef Reflog: master@{1} (Scott Chacon <schacon@gmail.com>) Reflog message: merge phedders/rdocs: Merge made by recursive. Author: Scott Chacon <schacon@gmail.com> Date: Thu Dec 11 15:08:43 2008 -0800 Merge commit 'phedders/rdocs' It’s important to note that the reflog information is strictly local – it’s a log of what you’ve done in your repository. The references won’t be the same on someone else’s copy of the repository; and right after you initially clone a repository, you’ll have an empty reflog, as no activity has occurred yet in your repository. Running git show HEAD@{2.months.ago} will work only if you cloned the project at least two months ago – if you cloned it five minutes ago, you’ll get no results. Reference podle původu Další základní způsob, jak specifikovat konkrétní revizi, je na základě jejího původu. Umístíte-li na konec reference znak ^ , Git bude referenci chápat tak, že označuje rodiče dané revize. Můžete mít například takovouto historii projektu: $ git log --pretty=format:'%h %s' --graph * 734713b fixed refs handling, added gc auto, updated tests * d921970 Merge commit 'phedders/rdocs' |\ | * 35cfb2b Some rdoc changes * | 1c002dd added some blame and merge stuff |/ * 1c36188 ignore *.gem * 9b29157 add open3_detach to gemspec file list Then, you can see the previous commit by specifying HEAD^ , which means “the parent of HEAD”: $ git show HEAD^ commit d921970aadf03b3cf0e71becdaab3147ba71cdef Merge: 1c002dd... 35cfb2b... Author: Scott Chacon <schacon@gmail.com> Date: Thu Dec 11 15:08:43 2008 -0800 Merge commit 'phedders/rdocs' You can also specify a number after the ^ – for example, d921970^2 means “the second parent of d921970.” This syntax is only useful for merge commits, which have more than one parent. První rodič je větev, na níž jste se během začlenění nacházeli, druhým rodičem je větev, kterou jste začleňovali: $ git show d921970^ commit 1c002dd4b536e7479fe34593e72e6c6c1819e53b Author: Scott Chacon <schacon@gmail.com> Date: Thu Dec 11 14:58:32 2008 -0800 added some blame and merge stuff $ git show d921970^2 commit 35cfb2b795a55793d7cc56a6cc2060b4bb732548 Author: Paul Hedderly <paul+git@mjr.org> Date: Wed Dec 10 22:22:03 2008 +0000 Some rdoc changes Další základní možností označení původu je znak ~ . Také tento znak označuje prvního rodiče, výrazy HEAD~ a HEAD^ jsou proto ekvivalentní. Rozdíl mezi nimi je patrný při zadání čísla. HEAD~2 means “the first parent of the first parent,” or “the grandparent” – it traverses the first parents the number of times you specify. Například v historii naznačené výše by HEAD~3 znamenalo $ git show HEAD~3 commit 1c3618887afb5fbcbea25b7c013f4e2114448b8d Author: Tom Preston-Werner <tom@mojombo.com> Date: Fri Nov 7 13:47:59 2008 -0500 ignore *.gem Totéž by bylo možné označit výrazem HEAD^^^ , který opět udává prvního rodiče prvního rodiče prvního rodiče: $ git show HEAD^^^ commit 1c3618887afb5fbcbea25b7c013f4e2114448b8d Author: Tom Preston-Werner <tom@mojombo.com> Date: Fri Nov 7 13:47:59 2008 -0500 ignore *.gem You can also combine these syntaxes – you can get the second parent of the previous reference (assuming it was a merge commit) by using HEAD~3^2 , and so on. Commit Ranges Nyní, když umíte určit jednotlivé revize, podíváme se, jak lze určovat celé intervaly revizí. This is particularly useful for managing your branches – if you have a lot of branches, you can use range specifications to answer questions such as, “What work is on this branch that I haven’t yet merged into my main branch?” Dvě tečky Nejčastěji se při označení intervalu používá dvojtečková syntaxe. Pomocí ní systému Git v podstatě říkáte, aby uvažoval celý interval revizí, které jsou dostupné z jedné revize, ale nejsou dostupné z jiné. For example, say you have a commit history that looks like Example history for range selection. . Figure 137. Example history for range selection. Vy chcete vidět, co všechno obsahuje vaše experimentální větev, kterou jste ještě nezačlenili do hlavní větve. You can ask Git to show you a log of just those commits with master..experiment – that means “all commits reachable by experiment that aren’t reachable by master.” For the sake of brevity and clarity in these examples, I’ll use the letters of the commit objects from the diagram in place of the actual log output in the order that they would display: $ git log master..experiment D C If, on the other hand, you want to see the opposite – all commits in master that aren’t in experiment – you can reverse the branch names. Výraz experiment..master zobrazí vše ve větvi master , co není dostupné ve větvi experiment : $ git log experiment..master F E Tento log využijete, pokud chcete udržovat větev experiment stále aktuální a zjistit, co hodláte začlenit. Tato syntaxe se velmi často používá také ke zjištění, co hodláte odeslat do vzdálené větve: $ git log origin/master..HEAD Tento příkaz zobrazí všechny revize ve vaší aktuální větvi, které nejsou obsaženy ve větvi master vzdáleného repozitáře origin . Spustíte-li příkaz git push a vaše aktuální větev sleduje větev origin/master , budou na server přesunuty revize, které lze zobrazit příkazem git log origin/master..HEAD . Jednu stranu intervalu můžete zcela vynechat, Git na její místo automaticky dosadí HEAD. For example, you can get the same results as in the previous example by typing git log origin/master.. – Git substitutes HEAD if one side is missing. Několik bodů Zápis s dvěma tečkami přestavuje užitečnou zkratku. Možná ale budete chtít k označení revize určit více než dvě větve, např. až budete chtít zjistit, které revize jsou obsaženy ve všech ostatních větvích a zároveň nejsou obsaženy ve větvi, na níž se právě nacházíte. V systému Git to můžete provést buď zadáním znaku ^ nebo parametru --not před referencí, jejíž dostupné revize si nepřejete zobrazit. Tyto tři příkazy jsou tedy ekvivalentní: $ git log refA..refB $ git log ^refA refB $ git log refB --not refA Tato syntaxe je užitečná zejména proto, že pomocí ní můžete zadat více než dvě reference, což není pomocí dvojtečkové syntaxe možné. Pokud chcete zobrazit například všechny revize, které jsou dostupné ve větvi refA nebo refB , ale nikoli ve větvi refC , zadejte jeden z následujících příkazů: $ git log refA refB ^refC $ git log refA refB --not refC Tím máte v rukou velmi efektivní systém vyhledávání revizí, který vám pomůže zjistit, co vaše větve obsahují. Triple Dot Poslední významnou syntaxí k určení intervalu je trojtečková syntaxe, která vybere všechny revize dostupné ve dvou referencích, ale ne v obou zároveň. Look back at the example commit history in Example history for range selection. . Chcete-li zjistit, co je ve větvi master nebo experiment , ale nechcete vidět jejich společné reference, zadejte příkaz: $ git log master...experiment F E D C Výstupem příkazu bude běžný výpis příkazu log , ale zobrazí se pouze informace o těchto čtyřech revizích, uspořádané v tradičním pořadí podle data zapsání. Přepínačem, který se v tomto případě běžně používá v kombinaci s příkazem log , je parametr --left-right . Příkaz pak zobrazí, na jaké straně intervalu se ta která revize nachází. Díky tomu získáte k datům další užitečné informace: $ git log --left-right master...experiment < F < E > D > C Pomocí těchto nástrojů můžete v systému Git daleko snáze specifikovat, kterou revizi nebo které revize chcete zobrazit. prev | next About this site Patches, suggestions, and comments are welcome. Git is a member of Software Freedom Conservancy | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/id_id/AmazonCloudWatch/latest/logs/LogsAnomalyDetection.html | Deteksi anomali log - CloudWatch Log Amazon Deteksi anomali log - CloudWatch Log Amazon Dokumentasi Amazon CloudWatch Panduan Pengguna Tingkat keparahan dan prioritas anomali dan pola Waktu visibilitas anomali Menekan anomali Pertanyaan umum Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris. Deteksi anomali log Anda dapat mendeteksi anomali dalam data log Anda dengan dua cara: dengan membuat detektor anomali log untuk pemantauan berkelanjutan, atau dengan menggunakan anomaly detection perintah dalam kueri Wawasan CloudWatch Log untuk analisis sesuai permintaan. Detektor anomali log memindai peristiwa log yang dicerna ke dalam grup log dan menemukan anomali dalam data log secara otomatis. Deteksi anomali menggunakan pembelajaran mesin dan pengenalan pola untuk menetapkan dasar konten log yang khas. Untuk analisis sesuai permintaan, Anda dapat menggunakan anomaly detection perintah dalam kueri Wawasan CloudWatch Log untuk mengidentifikasi pola yang tidak biasa dalam data deret waktu. Untuk informasi lebih lanjut tentang deteksi anomali berbasis kueri, lihat. Menggunakan deteksi anomali di Wawasan Log CloudWatch Setelah Anda membuat detektor anomali untuk grup log, ia berlatih menggunakan dua minggu terakhir peristiwa log di grup log untuk pelatihan. Periode pelatihan bisa memakan waktu hingga 15 menit. Setelah pelatihan selesai, ia mulai menganalisis log masuk untuk mengidentifikasi anomali, dan anomali ditampilkan di konsol CloudWatch Log untuk Anda periksa. CloudWatch Pengenalan pola log mengekstrak pola log dengan mengidentifikasi konten statis dan dinamis di log Anda. Pola berguna untuk menganalisis kumpulan log besar karena sejumlah besar peristiwa log sering dapat dikompresi menjadi beberapa pola. Misalnya, lihat contoh berikut dari tiga peristiwa log. 2023-01-01 19:00:01 [INFO] Calling DynamoDB to store for ResourceID: 12342342k124-12345 2023-01-01 19:00:02 [INFO] Calling DynamoDB to store for ResourceID: 324892398123-1234R 2023-01-01 19:00:03 [INFO] Calling DynamoDB to store for ResourceID: 3ff231242342-12345 Dalam sampel sebelumnya, ketiga peristiwa log mengikuti satu pola: <Date-1> <Time-2> [INFO] Calling DynamoDB to store for resource id <ResourceID-3> Bidang dalam pola disebut token . Bidang yang bervariasi dalam suatu pola, seperti ID permintaan atau stempel waktu, disebut sebagai token dinamis . Setiap nilai berbeda yang ditemukan untuk token dinamis disebut nilai token . Jika CloudWatch Log dapat menyimpulkan jenis data yang diwakili oleh token dinamis, itu akan menampilkan token sebagai < string - number > . string Ini adalah deskripsi dari jenis data yang diwakili oleh token. number Menunjukkan di mana dalam pola token ini muncul, dibandingkan dengan token dinamis lainnya. CloudWatch Log menetapkan bagian string dari nama berdasarkan analisis konten peristiwa log yang berisi itu. Jika CloudWatch Log tidak dapat menyimpulkan jenis data yang diwakili oleh token dinamis, ia menampilkan token sebagai <Token- number >, dan number menunjukkan di mana dalam pola token ini muncul, dibandingkan dengan token dinamis lainnya. Contoh umum token dinamis termasuk kode kesalahan, alamat IP, stempel waktu, dan permintaan. IDs Deteksi anomali log menggunakan pola-pola ini untuk menemukan anomali. Setelah periode pelatihan model detektor anomali, log dievaluasi terhadap tren yang diketahui. Detektor anomali menandai fluktuasi yang signifikan sebagai anomali. Bab ini menjelaskan cara mengaktifkan deteksi anomali, melihat anomali, membuat alarm untuk detektor anomali log, dan metrik yang diterbitkan oleh detektor anomali log. Ini juga menjelaskan cara mengenkripsi detektor anomali dan hasilnya dengan. AWS Key Management Service Membuat detektor anomali log tidak menimbulkan biaya. Tingkat keparahan dan prioritas anomali dan pola Setiap anomali yang ditemukan oleh detektor anomali log diberi prioritas. Setiap pola yang ditemukan diberi tingkat keparahan . Prioritas dihitung secara otomatis, dan didasarkan pada tingkat keparahan pola dan jumlah penyimpangan dari nilai yang diharapkan. Misalnya, jika nilai token tertentu tiba-tiba meningkat sebesar 500%, anomali itu mungkin ditetapkan sebagai HIGH prioritas bahkan jika tingkat keparahannya. NONE Tingkat keparahan hanya didasarkan pada kata kunci yang ditemukan dalam pola seperti FATAL , ERROR , dan WARN . Jika tidak satu pun dari kata kunci ini ditemukan, tingkat keparahan pola ditandai sebagai NONE . Waktu visibilitas anomali Saat Anda membuat detektor anomali, Anda menentukan periode visibilitas anomali maksimum untuknya. Ini adalah jumlah hari anomali ditampilkan di konsol dan dikembalikan oleh operasi ListAnomalies API. Setelah periode waktu ini berlalu untuk anomali, jika terus terjadi, itu secara otomatis diterima sebagai perilaku biasa dan model detektor anomali berhenti menandainya sebagai anomali. Jika Anda tidak menyesuaikan waktu visibilitas saat membuat detektor anomali, 21 hari digunakan sebagai default. Menekan anomali Setelah anomali ditemukan, Anda dapat memilih untuk menekannya sementara atau permanen. Menekan anomali menyebabkan detektor anomali berhenti menandai kejadian ini sebagai anomali untuk jumlah waktu yang Anda tentukan. Ketika Anda menekan anomali, Anda dapat memilih untuk menekan hanya anomali spesifik itu, atau menekan semua anomali yang terkait dengan pola di mana anomali itu ditemukan. Anda masih dapat melihat anomali yang ditekan di konsol. Anda juga dapat memilih untuk berhenti menekannya. Pertanyaan umum Apakah AWS menggunakan data saya untuk melatih algoritme pembelajaran mesin untuk AWS digunakan atau untuk pelanggan lain? Tidak. Model deteksi anomali yang dibuat oleh pelatihan didasarkan pada peristiwa log dalam grup log dan hanya digunakan dalam grup log itu dan akun itu AWS . Jenis peristiwa log apa yang bekerja dengan baik dengan deteksi anomali? Deteksi anomali log sangat cocok untuk: Log aplikasi dan jenis log lainnya di mana sebagian besar entri log sesuai dengan pola tipikal. Grup log dengan peristiwa yang berisi tingkat log atau kata kunci tingkat keparahan seperti INFO , ERROR , dan DEBUG sangat cocok untuk mencatat deteksi anomali. Deteksi anomali log tidak cocok untuk: Peristiwa log dengan struktur JSON yang sangat panjang, seperti Log. CloudTrail Analisis pola hanya menganalisis hingga 1500 karakter pertama dari garis log, sehingga karakter apa pun di luar batas itu dilewati. Audit atau log akses, seperti log aliran VPC, juga akan kurang berhasil dengan deteksi anomali. Deteksi anomali dimaksudkan untuk menemukan masalah aplikasi, jadi mungkin tidak cocok untuk anomali jaringan atau akses. Untuk membantu Anda menentukan apakah detektor anomali cocok untuk grup log tertentu, gunakan analisis pola CloudWatch Log untuk menemukan jumlah pola dalam peristiwa log dalam grup. Jika jumlah pola tidak lebih dari sekitar 300, deteksi anomali mungkin bekerja dengan baik. Untuk informasi lebih lanjut tentang analisis pola, lihat Analisis pola . Apa yang ditandai sebagai anomali? Kejadian berikut dapat menyebabkan peristiwa log ditandai sebagai anomali: Peristiwa log dengan pola yang tidak terlihat sebelumnya di grup log. Variasi yang signifikan terhadap pola yang diketahui. Nilai baru untuk token dinamis yang memiliki serangkaian nilai biasa yang terpisah. Perubahan besar dalam jumlah kemunculan nilai untuk token dinamis. Meskipun semua item sebelumnya mungkin ditandai sebagai anomali, itu tidak semua berarti bahwa aplikasi berkinerja buruk. Misalnya, higher-than-usual sejumlah nilai 200 keberhasilan mungkin ditandai sebagai anomali. Dalam kasus seperti ini, Anda mungkin mempertimbangkan untuk menekan anomali ini yang tidak menunjukkan masalah. Apa yang terjadi dengan data sensitif yang sedang disembunyikan? Setiap bagian dari peristiwa log yang disamarkan sebagai data sensitif tidak dipindai untuk anomali. Untuk informasi selengkapnya tentang menyembunyikan data sensitif, lihat Membantu melindungi data log sensitif dengan masking . Javascript dinonaktifkan atau tidak tersedia di browser Anda. Untuk menggunakan Dokumentasi AWS, Javascript harus diaktifkan. Lihat halaman Bantuan browser Anda untuk petunjuk. Konvensi Dokumen Memecahkan masalah kueri terjadwal Menggunakan deteksi anomali di Wawasan Log CloudWatch Apakah halaman ini membantu Anda? - Ya Terima kasih telah memberitahukan bahwa hasil pekerjaan kami sudah baik. Jika Anda memiliki waktu luang, beri tahu kami aspek apa saja yang sudah bagus, agar kami dapat menerapkannya secara lebih luas. Apakah halaman ini membantu Anda? - Tidak Terima kasih telah memberi tahu kami bahwa halaman ini perlu ditingkatkan. Maaf karena telah mengecewakan Anda. Jika Anda memiliki waktu luang, beri tahu kami bagaimana dokumentasi ini dapat ditingkatkan. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/it_it/AmazonCloudWatch/latest/monitoring/CloudWatch-Application-Monitoring-Sections.html#application-signals-features | Segnali applicativi - Amazon CloudWatch Segnali applicativi - Amazon CloudWatch Documentazione Amazon CloudWatch Guida per l’utente Funzionalità Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà. Segnali applicativi CloudWatch Application Signals consente di monitorare e migliorare le prestazioni delle applicazioni su. AWS Raccoglie automaticamente i dati dalle tue applicazioni in esecuzione su servizi come Amazon EC2, Amazon ECS e Lambda. Puoi utilizzare CloudWatch Application Signals per quanto segue: Monitoraggio dello stato delle applicazioni in tempo reale Tracciamento delle prestazioni rispetto agli obiettivi aziendali Visualizzazione delle relazioni tra servizi e dipendenze Rapida identificazione e risoluzione dei problemi di prestazioni Consenti ad Application Signals di raccogliere automaticamente parametri e tracce dalle tue applicazioni e di visualizzare parametri chiave come volume delle chiamate, disponibilità, latenza, guasti ed errori. Visualizza e valuta rapidamente l'integrità operativa attuale e se le tue applicazioni stanno raggiungendo i loro obiettivi di prestazione a lungo termine, senza scrivere codice personalizzato o creare pannelli di controllo. Crea e monitora obiettivi a livello di servizio (SLOs) con Application Signals. Crea e monitora facilmente lo stato delle metriche SLOs correlate, incluse le nuove CloudWatch metriche applicative standard raccolte da Application Signals. Visualizza e monitora lo stato dell' indicatore del livello di servizio (SLI) dei tuoi servizi applicativi all'interno di un elenco di servizi e di una mappa topologica. Crea allarmi per tracciare e tenere traccia SLOs delle nuove metriche applicative standard raccolte da Application Signals. Visualizza una mappa della topologia delle applicazioni che Application Signals rileva automaticamente, che offre una rappresentazione visiva delle applicazioni, delle dipendenze e della loro connettività. Application Signals funziona con CloudWatch RUM , CloudWatchSynthetics canaries Amazon EC2 Auto Scaling e per visualizzare le pagine dei clienti AWS Service Catalog AppRegistry , Synthetics canaries e i nomi delle applicazioni all'interno di dashboard e mappe. Linguaggi e architetture supportati Application Signals supporta le applicazioni Java, Python, Node.js e .NET. Application Signals è supportato e testato su Amazon EKS, Amazon ECS e Amazon EC2. Sui cluster Amazon EKS, rileva automaticamente i nomi dei tuoi servizi e cluster. Su altre architetture, devi fornire i nomi dei servizi e degli ambienti quando abiliti tali servizi per Application Signals. Le istruzioni per abilitare Application Signals su Amazon EC2 dovrebbero funzionare su qualsiasi architettura che supporti l' CloudWatch agente e AWS Distro for OpenTelemetry. Tuttavia, le istruzioni non sono state testate su architetture diverse da Amazon ECS e Amazon. EC2 Regioni supportate Application Signals è supportato in tutte le Regioni commerciali ad eccezione di Canada occidentale (Calgary). Argomenti Funzionalità Autorizzazioni necessarie per Application Signals Sistemi supportati Configurazioni di instrumentazione supportate Abilitazione di Application Signals in un account (Facoltativo) Prova di Application Signals su un'app di esempio Abilitazione delle applicazioni sui cluster Amazon EKS Abilita le tue applicazioni su Amazon EC2 Abilitazione delle applicazioni in Amazon ECS Abilitazione delle applicazioni su Kubernetes Abilitazione delle applicazioni su Lambda Risoluzione dei problemi relativi all'installazione di Application Signals (Facoltativo) Configurazione di Application Signals Monitoraggio dell'integrità operativa delle applicazioni con Application Signals Metriche raccolte da Application Signals Metriche personalizzate con Application Signals Funzionalità Usa Application Signals per il monitoraggio quotidiano delle applicazioni : utilizza Application Signals all'interno della CloudWatch console, come parte del monitoraggio quotidiano delle applicazioni: Se avete creato obiettivi di livello di servizio (SLOs) per i vostri servizi, iniziate dalla pagina Service Level Objectives (SLO) . In questo modo puoi avere una visione immediata dell'integrità dei servizi, delle operazioni e delle dipendenze più importanti. Scegli il nome del servizio, dell'operazione o della dipendenza per uno SLO per aprire la pagina Dettagli del servizio e visualizzare informazioni dettagliate sul servizio durante la risoluzione dei problemi. Apri la pagina Servizi per vedere un riepilogo di tutti i tuoi servizi e visualizzare rapidamente i servizi con il tasso di errore o la latenza più elevati. Se li hai creati SLOs, guarda la tabella Servizi per vedere quali servizi hanno indicatori di livello di servizio non integri ()SLIs. Se un particolare servizio non è integro, selezionalo per aprire la pagina dei dettagli del servizio e visualizzare le operazioni del servizio, le dipendenze, i canali Synthetics e le richieste client. Seleziona un punto in un grafico per visualizzare le tracce correlate in modo da poter risolvere e identificare la causa principale dei problemi operativi. Se sono stati implementati nuovi servizi o le dipendenze sono cambiate, apri la Mappa dell'applicazione per esaminare la topologia dell'applicazione. Visualizza una mappa delle tue applicazioni che mostra la relazione tra client, canary Synthetics, servizi e dipendenze. Visualizza rapidamente lo stato dello SLI, visualizza i parametri chiave come il volume delle chiamate, la frequenza di errore e la latenza e approfondisci per visualizzare informazioni più dettagliate nella pagina dei dettagli del servizio . L'uso di Application Signals comporta costi. Per informazioni sui CloudWatch prezzi, consulta la pagina CloudWatch dei prezzi di Amazon . Nota Non è necessario abilitare Application Signals per utilizzare CloudWatch Synthetics o RUM. CloudWatch Tuttavia, Synthetics CloudWatch e RUM funzionano con Application Signals per offrire vantaggi quando si utilizzano queste funzionalità insieme. Application Signals su più account : con l'osservabilità tra più account di Application Signals, puoi monitorare e risolvere i problemi delle applicazioni che si estendono su più account all'interno di una singola regione. AWS Puoi utilizzare Amazon CloudWatch Observability Access Manager per configurare uno o più AWS account come account di monitoraggio. Fornirai all'account di monitoraggio la possibilità di visualizzare i dati nel tuo account di origine creando un sink all'interno di esso. Il sink viene utilizzato per creare un collegamento dal tuo account di origine al tuo account di monitoraggio. Per ulteriori informazioni, consulta CloudWatch osservabilità tra più account . Per il corretto funzionamento dell'osservabilità tra account di Application Signals, assicurati che i seguenti tipi di telemetria siano condivisi tramite Observability Access Manager. CloudWatch Servizi e obiettivi a livello di servizio di Application Signals () SLOs Metriche in Amazon CloudWatch Gruppi di log in Amazon CloudWatch Logs Tracce in AWS X-Ray Raggruppamento e filtraggio dinamici dei servizi : raggruppa e filtra i servizi con le funzionalità di raggruppamento dinamico di Application Signals. Aggrega automaticamente le metriche e i servizi all'interno SLIs dei gruppi, consentendoti di partire da una visione di gruppo e di approfondire aree problematiche specifiche. Application Signals fornisce due raggruppamenti predefiniti: il raggruppamento «Ambiente» che organizza per ambiente di servizio e il raggruppamento «Servizi correlati» che raggruppa i servizi in base alle loro dipendenze. Ad esempio, nel raggruppamento dei servizi correlati, se il Servizio A chiama il Servizio B, che chiama il Servizio C, vengono raggruppati nel Servizio A. Oltre ai raggruppamenti predefiniti, è possibile creare gruppi personalizzati selezionando servizi in linea con le esigenze organizzative, come Business unit o Team. Crea raggruppamenti personalizzati utilizzando AWS tag o OpenTelemetry attributi in linea con la struttura del team, i domini aziendali o i requisiti operativi. I raggruppamenti personalizzati consentono di organizzare i servizi in base ai flussi di lavoro specifici di monitoraggio e risoluzione dei problemi. Per ulteriori informazioni, consulta Configurazione dei gruppi personalizzati . Eventi di modifica : tieni traccia degli eventi di modifica in tutta l'applicazione con l'elaborazione automatica degli eventi di Application Signals. CloudTrail Monitora gli eventi di configurazione e distribuzione dei servizi e delle relative dipendenze, fornendo un contesto immediato per l'analisi operativa e la risoluzione dei problemi. Il rilevamento degli eventi di modifica è abilitato insieme all'abilitazione del rilevamento dei servizi tramite la CloudWatch console o l'API. StartDiscovery Per i servizi Amazon EKS, il rilevamento dell'implementazione richiede che i servizi Amazon EKS siano strumentati con l'SDK di strumentazione Application Signals. Gli eventi di modifica sono supportati per le seguenti risorse: Gruppo Autoscaling Cluster EKS EKS Workload (solo implementazioni) Cluster e servizio ECS Sistema di bilanciamento del carico ELB e gruppo target Funzione Lambda BedrockAgentCore Runtime e RuntimeEndpoint Risultati di audit automatizzati: scopri informazioni critiche attraverso i risultati di audit automatizzati di Application Signals. Il servizio analizza le applicazioni per segnalare osservazioni significative e potenziali problemi, semplificando l'analisi delle cause principali. Questi risultati automatizzati consolidano le tracce pertinenti, eliminando la necessità di navigare attraverso più clic. Il sistema di audit aiuta i team a identificare rapidamente i problemi e le loro cause sottostanti, consentendo una risoluzione più rapida dei problemi. Application Signals utilizza analisi avanzate per rilevare i modelli, evidenziare le inefficienze delle risorse e suggerire le opportunità di ottimizzazione. Agli esiti viene assegnata una priorità in base alla gravità e al potenziale impatto aziendale, in modo che i team possano concentrarsi innanzitutto sulle questioni più critiche. Ottieni consigli pratici per migliorare l'affidabilità e le prestazioni del servizio senza analisi manuali. JavaScript è disabilitato o non è disponibile nel tuo browser. Per usare la documentazione AWS, JavaScript deve essere abilitato. Consulta le pagine della guida del browser per le istruzioni. Convenzioni dei documenti Monitoraggio delle prestazioni delle applicazioni (APM) Autorizzazioni necessarie per Application Signals Questa pagina ti è stata utile? - Sì Grazie per averci comunicato che stiamo facendo un buon lavoro! Se hai un momento, ti invitiamo a dirci che cosa abbiamo fatto che ti è piaciuto così possiamo offrirti altri contenuti simili. Questa pagina ti è stata utile? - No Grazie per averci comunicato che questa pagina ha bisogno di essere modificata. Siamo spiacenti di non aver soddisfatto le tue esigenze. Se hai un momento, ti invitiamo a dirci come possiamo migliorare la documentazione. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/fr_fr/AmazonCloudWatch/latest/logs/LogsAnomalyDetection.html | Détection des anomalies du journal - Amazon CloudWatch Logs Détection des anomalies du journal - Amazon CloudWatch Logs Documentation Amazon CloudWatch Guide de l’utilisateur Gravité et priorité des anomalies et des modèles Durée de visibilité des anomalies Supprimer une anomalie Questions fréquentes (FAQ) Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra. Détection des anomalies du journal Vous pouvez détecter les anomalies dans les données de votre journal de deux manières : en créant un détecteur d'anomalies de journal pour une surveillance continue, ou en utilisant la anomaly detection commande dans les requêtes CloudWatch Logs Insights pour une analyse à la demande. Un détecteur d'anomalies du journal analyse les événements du journal ingérés dans un groupe de journaux et détecte automatiquement les anomalies dans les données du journal. La détection des anomalies utilise l'apprentissage automatique et la reconnaissance de formes pour établir des bases de référence pour le contenu typique des journaux. Pour une analyse à la demande, vous pouvez utiliser la anomaly detection commande dans les requêtes CloudWatch Logs Insights pour identifier des modèles inhabituels dans les données de séries chronologiques. Pour plus d'informations sur la détection des anomalies basée sur les requêtes, consultez. Utilisation de la détection des anomalies dans CloudWatch Logs Insights Une fois que vous avez créé un détecteur d'anomalies pour un groupe de journaux, celui-ci s'entraîne en utilisant les événements des deux dernières semaines dans le groupe de journaux à des fins d'entraînement. La période d'entraînement peut durer jusqu'à 15 minutes. Une fois la formation terminée, elle commence à analyser les journaux entrants pour identifier les anomalies, qui sont affichées dans la console CloudWatch Logs pour que vous puissiez les examiner. CloudWatch La reconnaissance des modèles de journaux extrait les modèles de journaux en identifiant le contenu statique et dynamique de vos journaux. Les modèles sont utiles pour analyser de grands ensembles de journaux, car un grand nombre d'événements de journal peuvent souvent être compressés en plusieurs modèles. Par exemple, consultez l'exemple suivant de trois événements de journal. 2023-01-01 19:00:01 [INFO] Calling DynamoDB to store for ResourceID: 12342342k124-12345 2023-01-01 19:00:02 [INFO] Calling DynamoDB to store for ResourceID: 324892398123-1234R 2023-01-01 19:00:03 [INFO] Calling DynamoDB to store for ResourceID: 3ff231242342-12345 Dans l'exemple précédent, les trois événements du journal suivent le même schéma : <Date-1> <Time-2> [INFO] Calling DynamoDB to store for resource id <ResourceID-3> Les champs d'un modèle sont appelés jetons . Les champs qui varient au sein d'un modèle, tels qu'un ID de demande ou un horodatage, sont appelés jetons dynamiques . Chaque valeur différente trouvée pour un jeton dynamique est appelée valeur de jeton . Si CloudWatch Logs peut déduire le type de données représenté par un jeton dynamique, il affiche le jeton sous < string - number > la forme. string Il s'agit d'une description du type de données que le jeton représente. number Indique où ce jeton apparaît dans le modèle, par rapport aux autres jetons dynamiques. CloudWatch Logs attribue la partie chaîne du nom en fonction de l'analyse du contenu des événements du journal qui le contiennent. Si CloudWatch Logs ne peut pas déduire le type de données représenté par un jeton dynamique, il affiche le jeton sous la forme <Token- number > et number indique où ce jeton apparaît dans le schéma, par rapport aux autres jetons dynamiques. Les exemples courants de jetons dynamiques incluent les codes d'erreur, les adresses IP, les horodatages et les demandes. IDs La détection des anomalies dans les journaux utilise ces modèles pour détecter les anomalies. Après la période de formation du modèle de détecteur d'anomalies, les journaux sont évalués par rapport aux tendances connues. Le détecteur d'anomalies signale les fluctuations importantes comme des anomalies. Ce chapitre explique comment activer la détection des anomalies, visualiser les anomalies, créer des alarmes pour les détecteurs d'anomalies dans les journaux et les mesures publiées par les détecteurs d'anomalies dans les journaux. Il décrit également comment chiffrer le détecteur d'anomalies et ses résultats avec. AWS Key Management Service La création de détecteurs d'anomalies du journal n'entraîne aucun frais. Gravité et priorité des anomalies et des modèles Une priorité est attribuée à chaque anomalie détectée par un détecteur d'anomalies logarithmiques. Une gravité est attribuée à chaque modèle détecté. La priorité est automatiquement calculée et est basée à la fois sur le niveau de gravité du modèle et sur l'écart par rapport aux valeurs attendues. Par exemple, si la valeur d'un jeton augmente soudainement de 500 %, cette anomalie peut être désignée comme HIGH prioritaire, même si sa gravité l'est. NONE La sévérité est basée uniquement sur les mots clés trouvés dans les modèles tels que FATAL ERROR , et WARN . Si aucun de ces mots clés n'est trouvé, la gravité d'un modèle est marquée comme NONE . Durée de visibilité des anomalies Lorsque vous créez un détecteur d'anomalies, vous spécifiez la période maximale de visibilité des anomalies pour celui-ci. Il s'agit du nombre de jours pendant lesquels l'anomalie s'affiche dans la console et est renvoyée par l'opération ListAnomalies d'API. Une fois ce délai écoulé pour une anomalie, si elle persiste, elle est automatiquement acceptée comme un comportement normal et le modèle de détecteur d'anomalie cesse de la signaler comme une anomalie. Si vous ne réglez pas le temps de visibilité lorsque vous créez un détecteur d'anomalie, 21 jours sont utilisés par défaut. Supprimer une anomalie Une fois qu'une anomalie a été détectée, vous pouvez choisir de la supprimer temporairement ou définitivement. La suppression d'une anomalie empêche le détecteur d'anomalie de signaler cette occurrence comme une anomalie pendant la durée que vous spécifiez. Lorsque vous supprimez une anomalie, vous pouvez choisir de supprimer uniquement cette anomalie spécifique ou de supprimer toutes les anomalies liées au schéma dans lequel l'anomalie a été détectée. Vous pouvez toujours consulter les anomalies supprimées dans la console. Vous pouvez également choisir de ne plus les supprimer. Questions fréquentes (FAQ) Est-ce que mes données sont AWS utilisées pour entraîner des algorithmes d'apprentissage automatique destinés à être AWS utilisés ou destinés à d'autres clients ? Non Le modèle de détection des anomalies créé par la formation est basé sur les événements du journal d'un groupe de journaux et n'est utilisé qu'au sein de ce groupe de journaux et de ce AWS compte. Quels types d'événements de journal fonctionnent bien avec la détection des anomalies ? La détection des anomalies dans les journaux convient parfaitement aux journaux d'applications et aux autres types de journaux dans lesquels la plupart des entrées de journal correspondent à des modèles classiques. Les groupes de journaux contenant des événements contenant un niveau de journalisation ou des mots clés de gravité tels que INFO , ERROR et DEBUG sont particulièrement adaptés à la détection des anomalies des journaux. La détection des anomalies du journal n'est pas adaptée pour : enregistrez les événements avec des structures JSON extrêmement longues, tels que CloudTrail les journaux. L'analyse des modèles analyse uniquement les 1 500 premiers caractères d'une ligne de journal, de sorte que tous les caractères dépassant cette limite sont ignorés. Les journaux d'audit ou d'accès, tels que les journaux de flux VPC, seront également moins efficaces en matière de détection des anomalies. La détection des anomalies est destinée à détecter les problèmes d'application. Elle peut donc ne pas être adaptée aux anomalies du réseau ou de l'accès. Pour vous aider à déterminer si un détecteur d'anomalies convient à un certain groupe de journaux, utilisez l'analyse des modèles de CloudWatch journaux pour déterminer le nombre de modèles dans les événements de journal du groupe. Si le nombre de modèles n'est pas supérieur à environ 300, la détection des anomalies peut fonctionner correctement. Pour plus d'informations sur l'analyse des modèles, consultez Analyse de modèles . Qu'est-ce qui est considéré comme une anomalie ? Les événements suivants peuvent entraîner le marquage d'un événement du journal comme une anomalie : Un événement de journal dont le schéma n'a jamais été observé auparavant dans le groupe de journaux. Variation significative par rapport à un schéma connu. Nouvelle valeur pour un jeton dynamique comportant un ensemble discret de valeurs habituelles. Modification importante du nombre d'occurrences d'une valeur pour un jeton dynamique. Bien que tous les éléments précédents puissent être marqués comme des anomalies, ils ne signifient pas tous que l'application fonctionne mal. Par exemple, un higher-than-usual certain nombre de valeurs de 200 réussite peuvent être signalées comme des anomalies. Dans de tels cas, vous pouvez envisager de supprimer ces anomalies qui n'indiquent pas de problèmes. Que se passe-t-il avec les données sensibles masquées ? Les parties des événements du journal qui sont masquées comme des données sensibles ne sont pas analysées pour détecter toute anomalie. Pour plus d'informations sur le masquage des données sensibles, voir Aider à protéger les données de journal sensibles par le masquage . JavaScript est désactivé ou n'est pas disponible dans votre navigateur. Pour que vous puissiez utiliser la documentation AWS, Javascript doit être activé. Vous trouverez des instructions sur les pages d'aide de votre navigateur. Conventions de rédaction Résolution des problèmes de requêtes planifiées Utilisation de la détection des anomalies dans CloudWatch Logs Insights Cette page vous a-t-elle été utile ? - Oui Merci de nous avoir fait part de votre satisfaction. Si vous avez quelques minutes à nous consacrer, merci de nous indiquer ce qui vous a plu afin que nous puissions nous améliorer davantage. Cette page vous a-t-elle été utile ? - Non Merci de nous avoir avertis que cette page avait besoin d'être retravaillée. Nous sommes désolés de ne pas avoir répondu à vos attentes. Si vous avez quelques minutes à nous consacrer, merci de nous indiquer comment nous pourrions améliorer cette documentation. | 2026-01-13T09:29:26 |
https://www.infoworld.com/cloud-computing/ | Cloud Computing | InfoWorld Topics Latest Newsletters Resources Buyer’s Guides About About Us Advertise Contact Us Editorial Ethics Policy Foundry Careers Newsletters Contribute to InfoWorld Reprints Policies Terms of Service Privacy Policy Cookie Policy Copyright Notice Member Preferences About AdChoices Your California Privacy Rights Our Network CIO Computerworld CSO Network World More News Features Blogs BrandPosts Events Videos Enterprise Buyer’s Guides Close Analytics Artificial Intelligence Generative AI Careers Cloud Computing Data Management Databases Emerging Technology Technology Industry Security Software Development Microsoft .NET Development Tools Devops Open Source Programming Languages Java JavaScript Python IT Leadership Enterprise Buyer’s Guides Back Close Back Close Popular Topics Artificial Intelligence Cloud Computing Data Management Software Development Search Topics Latest Newsletters Resources Buyer’s Guides About Policies Our Network More Back Topics Analytics Artificial Intelligence Generative AI Careers Cloud Computing Data Management Databases Emerging Technology Technology Industry Security Software Development Microsoft .NET Development Tools Devops Open Source Programming Languages Java JavaScript Python IT Leadership Enterprise Buyer’s Guides Back About About Us Advertise Contact Us Editorial Ethics Policy Foundry Careers Newsletters Contribute to InfoWorld Reprints Back Policies Terms of Service Privacy Policy Cookie Policy Copyright Notice Member Preferences About AdChoices Your California Privacy Rights Back Our Network CIO Computerworld CSO Network World Back More News Features Blogs BrandPosts Events Videos Enterprise Buyer’s Guides Home Cloud Computing Sponsored by KPMG Cloud Computing Cloud Computing | News, how-tos, features, reviews, and videos Explore related topics Cloud Architecture Cloud Management Cloud Storage Cloud-Native Hybrid Cloud IaaS Managed Cloud Services Multicloud PaaS Private Cloud SaaS Latest from today analysis Which development platforms and tools should you learn now? For software developers, choosing which technologies and skills to master next has never been more difficult. Experts offer their recommendations. By Isaac Sacolick Jan 13, 2026 8 mins Development Tools Devops Generative AI analysis Why hybrid cloud is the future of enterprise platforms By David Linthicum Jan 13, 2026 4 mins Artificial Intelligence Cloud Architecture Hybrid Cloud news Oracle unveils Java development plans for 2026 By Paul Krill Jan 12, 2026 3 mins Java Programming Languages Software Development news AI is causing developers to abandon Stack Overflow By Mikael Markander Jan 12, 2026 2 mins Artificial Intelligence Generative AI Software Development opinion Stack thinking: Why a single AI platform won’t cut it By Tom Popomaronis Jan 12, 2026 8 mins Artificial Intelligence Development Tools Software Development news Postman snaps up Fern to reduce developer friction around API documentation and SDKs By Anirban Ghoshal Jan 12, 2026 3 mins APIs Software Development opinion Why ‘boring’ VS Code keeps winning By Matt Asay Jan 12, 2026 7 mins Developer GitHub Visual Studio Code feature How to succeed with AI-powered, low-code and no-code development tools By Bob Violino Jan 12, 2026 9 mins Development Tools Generative AI No Code and Low Code news Visual Studio Code adds support for agent skills By Paul Krill Jan 9, 2026 3 mins Development Tools Integrated Development Environments Visual Studio Code Articles news analysis Snowflake: Latest news and insights Stay up-to-date on how Snowflake and its underlying architecture has changed how cloud developers, data managers and data scientists approach cloud data management and analytics By Dan Muse Jan 9, 2026 5 mins Cloud Architecture Cloud Computing Cloud Management news Snowflake to acquire Observe to boost observability in AIops The acquisition could position Snowflake as a control plane for production AI, giving CIOs visibility across data, models, and infrastructure without the pricing shock of traditional observability stacks, analysts say. By Anirban Ghoshal Jan 9, 2026 3 mins Artificial Intelligence Software Development feature Python starts 2026 with a bang The world’s most popular programming language kicks off the new year with a wicked-fast type checker, a C code generator, and a second chance for the tail-calling interpreter. By Serdar Yegulalp Jan 9, 2026 2 mins Programming Languages Python Software Development news Microsoft open-sources XAML Studio Forthcoming update of the rapid prototyping tool for WinUI developers, now available on GitHub, adds a new Fluent UI design, folder support, and a live properties panel. By Paul Krill Jan 8, 2026 1 min Development Tools Integrated Development Environments Visual Studio analysis What drives your cloud security strategy? As cloud breaches increase, organizations should prioritize skills and training over the latest tech to address the actual root problems. By David Linthicum Jan 6, 2026 5 mins Careers Cloud Security IT Skills and Training news Databricks says its Instructed Retriever offers better AI answers than RAG in the enterprise Databricks says Instructed Retriever outperforms RAG and could move AI pilots to production faster, but analysts warn it could expose data, governance, and budget gaps that CIOs can’t ignore. By Anirban Ghoshal Jan 8, 2026 5 mins Artificial Intelligence Generative AI opinion The hidden devops crisis that AI workloads are about to expose Devops teams that cling to component-level testing and basic monitoring will struggle to keep pace with the data demands of AI. By Joseph Morais Jan 8, 2026 6 mins Artificial Intelligence Devops Generative AI news AI-built Rue language pairs Rust memory safety with ease of use Developed using Anthropic’s Claude AI model, the new language is intended to provide memory safety without garbage collection while being easier to use than Rust and Zig. By Paul Krill Jan 7, 2026 2 mins Generative AI Programming Languages Rust news Microsoft acquires Osmos to ease data engineering bottlenecks in Fabric The acquisition could help enterprises push analytics and AI projects into production faster while acting as the missing autonomy layer that connects Fabric’s recent enhancements into a coherent system. By Anirban Ghoshal Jan 7, 2026 4 mins Analytics Artificial Intelligence Data Engineering opinion What the loom tells us about AI and coding Like the loom, AI may turn the job market upside down. And enable new technologies and jobs that we simply can’t predict. By Nick Hodges Jan 7, 2026 4 mins Developer Engineer Generative AI analysis Generative UI: The AI agent is the front end In a new model for user interfaces, agents paint the screen with interactive UI components on demand. Let’s take a look. By Matthew Tyson Jan 7, 2026 8 mins Development Tools Generative AI Libraries and Frameworks news AI won’t replace human devs for at least 5 years Progress towards full AI-driven coding automation continues, but in steps rather than leaps, giving organizations time to prepare, according to a new study. By Taryn Plumb Jan 7, 2026 7 mins Artificial Intelligence Developer Roles news Automated data poisoning proposed as a solution for AI theft threat For hackers, the stolen data would be useless, but authorized users would have a secret key that filters out the fake information. By Howard Solomon Jan 7, 2026 6 mins Artificial Intelligence Data Privacy Privacy Show more Show less View all Video on demand video How to generate C-like programs with Python You might be familiar with how Python and C can work together, by way of projects like Cython. The new PythoC project has a unique twist on working with both languages: it lets you write type-decorated Python that can generate entire standalone C programs, not just importable Python libraries written in C. This video shows a few basic PythoC functions, from generating a whole program to using some of PythoC’s typing features to provide better memory management than C alone could. Dec 16, 2025 5 mins Python Zed Editor Review: The Rust-Powered IDE That Might Replace VS Code Dec 3, 2025 5 mins Python Python vs. Kotlin Nov 13, 2025 5 mins Python Hands-on with the new sampling profiler in Python 3.15 Nov 6, 2025 6 mins Python See all videos Explore a topic Analytics Artificial Intelligence Careers Data Management Databases Development Tools Devops Emerging Technology Generative AI Java JavaScript Microsoft .NET Open Source Programming Languages View all topics All topics Close Browse all topics and categories below. Analytics Artificial Intelligence Careers Data Management Databases Development Tools Devops Emerging Technology Generative AI Java JavaScript Microsoft .NET Open Source Programming Languages Python Security Software Development Technology Industry Show me more Latest Articles Videos news Ruby 4.0.0 introduces ZJIT compiler, Ruby Box isolation By Paul Krill Jan 6, 2026 3 mins Programming Languages Ruby Software Development news Open WebUI bug turns the ‘free model’ into an enterprise backdoor By Shweta Sharma Jan 6, 2026 3 mins Artificial Intelligence Security Vulnerabilities interview Generative AI and the future of databases By Martin Heller Jan 6, 2026 14 mins Artificial Intelligence Databases Generative AI video How to make local packages universal across Python venvs Nov 4, 2025 4 mins Python video X-ray vision for your async activity in Python 3.14 Oct 21, 2025 4 mins Python video Why it's so hard to redistribute standalone Python apps Oct 17, 2025 5 mins Python About About Us Advertise Contact Us Editorial Ethics Policy Foundry Careers Reprints Newsletters BrandPosts Policies Terms of Service Privacy Policy Cookie Policy Copyright Notice Member Preferences About AdChoices Your California Privacy Rights Privacy Settings Our Network CIO Computerworld CSO Network World Facebook X YouTube Google News LinkedIn © 2026 FoundryCo, Inc. All Rights Reserved. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/LogsAnomalyDetection#LogsAnomalyDetection-FAQ | Log anomaly detection - Amazon CloudWatch Logs Log anomaly detection - Amazon CloudWatch Logs Documentation Amazon CloudWatch User Guide Severity and priority of anomalies and patterns Anomaly visibility time Suppressing an anomaly Frequently asked questions Log anomaly detection You can detect anomalies in your log data in two ways: by creating a log anomaly detector for continuous monitoring, or by using the anomaly detection command in CloudWatch Logs Insights queries for on-demand analysis. A log anomaly detector scans the log events ingested into a log group and finds anomalies in the log data automatically. Anomaly detection uses machine-learning and pattern recognition to establish baselines of typical log content. For on-demand analysis, you can use the anomaly detection command in CloudWatch Logs Insights queries to identify unusual patterns in time-series data. For more information about query-based anomaly detection, see Using anomaly detection in CloudWatch Logs Insights . After you create an anomaly detector for a log group, it trains using the past two weeks of log events in the log group for training. The training period can take up to 15 minutes. After the training is complete, it begins to analyze incoming logs to identify anomalies, and the anomalies are displayed in the CloudWatch Logs console for you to examine. CloudWatch Logs pattern recognition extracts log patterns by identifying static and dynamic content in your logs. Patterns are useful for analyzing large log sets because a large number of log events can often be compressed into a few patterns. For example, see the following sample of three log events. 2023-01-01 19:00:01 [INFO] Calling DynamoDB to store for ResourceID: 12342342k124-12345 2023-01-01 19:00:02 [INFO] Calling DynamoDB to store for ResourceID: 324892398123-1234R 2023-01-01 19:00:03 [INFO] Calling DynamoDB to store for ResourceID: 3ff231242342-12345 In the previous sample, all three log events follow one pattern: <Date-1> <Time-2> [INFO] Calling DynamoDB to store for resource id <ResourceID-3> Fields within a pattern are called tokens . Fields that vary within a pattern, such as a request ID or timestamp, are referred to as dynamic tokens . Each different value found for a dynamic token is called a token value . If CloudWatch Logs can infer the type of data that a dynamic token represents, it displays the token as < string - number > . The string is a description of the type of data that the token represents. The number shows where in the pattern this token appears, compared to the other dynamic tokens. CloudWatch Logs assigns the string part of the name based on analyzing the content of the log events that contain it. If CloudWatch Logs can't infer the type of data that a dynamic token represents, it displays the token as <Token- number >, and number indicates where in the pattern this token appears, compared to the other dynamic tokens. Common examples of dynamic tokens include error codes, IP addresses, timestamps, and request IDs. Logs anomaly detection uses these patterns to find anomalies. After the anomaly detector model training period, logs are evaluated against known trends. The anomaly detector flags significant fluctuations as anomalies. This chapter describes how to enable anomaly detection, view anomalies, create alarms for log anomaly detectors, and metrics that log anomaly detectors publish. It also describes how to encrypt anomaly detector and its results with AWS Key Management Service. Creating log anomaly detectors doesn't incur charges. Severity and priority of anomalies and patterns Each anomaly found by a log anomaly detector is assigned a priority . Each pattern found is assigned a severity . Priority is automatically computed, and is based on both the severity level of the pattern and the amount of deviation from expected values. For example, if a certain token value suddenly increases by 500%, that anomaly might be designated as HIGH priority even if its severity is NONE . Severity is based only on keywords found in the patterns such as FATAL , ERROR , and WARN . If none of these keywords are found, the severity of a pattern is marked as NONE . Anomaly visibility time When you create an anomaly detector, you specify the maximum anomaly visibility period for it. This is the number of days that the anomaly is displayed in the console and is returned by the ListAnomalies API operation. After this time period has elapsed for an anomaly, if it continues to happen, it's automatically accepted as regular behavior and the anomaly detector model stops flagging it as an anomaly. If you don't adjust the visibility time when you create an anomaly detector, 21 days is used as the default. Suppressing an anomaly After an anomaly has been found, you can choose to suppress it temporarily or permanently. Suppressing an anomaly causes the anomaly detector to stop flagging this occurrence as an anomaly for the amount of time that you specify. When you suppress an anomaly, you can choose to suppress only that specific anomaly, or suppress all anomalies related to the pattern that the anomaly was found in. You can still view suppressed anomalies in the console. You can also choose to stop suppressing them. Frequently asked questions Does AWS use my data to train machine-learning algorithms for AWS use or for other customers? No. The anomaly detection model created by the training is based on the log events in a log group and is used only within that log group and that AWS account. What types of log events work well with anomaly detection? Log anomaly detection is well-suited for: Application logs and other types of logs where most log entries fit typical patterns. Log groups with events that contain a log level or severity keywords such as INFO , ERROR , and DEBUG are especially well-suited to log anomaly detection. Log anomaly detection is not suited for: Log events with extremely long JSON structures, such as CloudTrail Logs. Pattern analysis analyzes only up to the first 1500 characters of a log line, so any characters beyond that limit are skipped. Audit or access logs, such as VPC flow logs, will also have less success with anomaly detection. Anomaly detection is meant to find application issues, so it might not be well-suited for network or access anomalies. To help you determine whether an anomaly detector is suited to a certain log group, use CloudWatch Logs pattern analysis to find the number of patterns in the log events in the group. If the number of patterns is no more than about 300, anomaly detection might work well. For more information about pattern analysis, see Pattern analysis . What gets flagged as an anomaly? The following occurrences can cause a log event to be flagged as an anomaly: A log event with a pattern not seen before in the log group. A significant variation to a known pattern. A new value for a dynamic token that has a discrete set of usual values. A large change in the number of occurrences of a value for a dynamic token. While all the preceding items might be flagged as anomalies, they don't all mean that the application is performing poorly. For example, a higher-than-usual number of 200 success values might be flagged as an anomaly. In cases like this, you might consider suppressing these anomalies that don't indicate problems. What happens with sensitive data that is being masked? Any parts of log events that are masked as sensitive data are not scanned for anomalies. For more information about masking sensitive data, see Help protect sensitive log data with masking . Javascript is disabled or is unavailable in your browser. To use the Amazon Web Services Documentation, Javascript must be enabled. Please refer to your browser's Help pages for instructions. Document Conventions Troubleshooting scheduled queries Using anomaly detection in CloudWatch Logs Insights Did this page help you? - Yes Thanks for letting us know we're doing a good job! If you've got a moment, please tell us what we did right so we can do more of it. Did this page help you? - No Thanks for letting us know this page needs work. We're sorry we let you down. If you've got a moment, please tell us how we can make the documentation better. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/it_it/AmazonCloudWatch/latest/monitoring/CloudWatch-Application-Signals-supportmatrix.html | Sistemi supportati - Amazon CloudWatch Sistemi supportati - Amazon CloudWatch Documentazione Amazon CloudWatch Guida per l’utente Compatibilità con Java Compatibilità .NET Compatibilità PHP Compatibilità con Ruby Compatibilità con Python Compatibilità con Node.js GoLang compatibilità Tabella per il supporto della versione del runtime Problemi noti Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà. Sistemi supportati Application Signals è supportato e testato su Amazon EKS, Kubernetes nativo, Amazon ECS e Amazon. EC2 Le istruzioni per abilitare Application Signals su Amazon EC2 dovrebbero funzionare su qualsiasi piattaforma che supporti l' CloudWatch agente e AWS Distro for OpenTelemetry. Argomenti Compatibilità con Java Compatibilità .NET Compatibilità PHP Compatibilità con Ruby Compatibilità con Python Compatibilità con Node.js GoLang compatibilità Tabella per il supporto della versione del runtime Problemi noti Compatibilità con Java Application Signals supporta le applicazioni Java e supporta le stesse librerie e framework Java di AWS Distro for. OpenTelemetry Per ulteriori informazioni, consulta Librerie, framework, server di applicazioni supportati e. JVMs Compatibilità .NET Application Signals supporta le stesse librerie e framework .NET di Distro for does. AWS OpenTelemetry Per ulteriori informazioni, consulta Supported instrumentations . Application Signals supporta applicazioni.NET in esecuzione su x86-64 o ARM64 CPUs e supporta Linux x64, Linux ARM64 e Microsoft Windows Server 2022 x64. Nota L'SDK AWS Distro for Open Telemetry (ADOT) per .NET non supporta SDK per .NET V4. AWS Utilizza AWS SDK .NET V3 per il supporto completo di Application Signals. Compatibilità PHP Application Signals supporta applicazioni PHP con strumentazione Zero Code. OpenTelemetry A tale scopo non è AWS disponibile alcun SDK Distro for Open Telemetry (ADOT). È necessario utilizzare lo standard OpenTelemetry Instrumentation SDK con Transaction Search abilitato. Per iniziare a utilizzare la strumentazione a codice zero in PHP, segui questi passaggi dai documenti di PHP Instrumentation, OpenTelemetry PHP zero-code instrumentation. L'instrumentazione automatica è disponibile per diverse librerie PHP di uso comune. Per OpenTelemetry ulteriori informazioni , consulta Registry. Compatibilità con Ruby Application Signals supporta le applicazioni Ruby con strumentazione Zero Code. OpenTelemetry A tale scopo non è AWS disponibile alcun SDK Distro for Open Telemetry (ADOT). È necessario utilizzare lo standard OpenTelemetry Instrumentation SDK con Transaction Search abilitato. Per iniziare a utilizzare la strumentazione a codice zero in Ruby, segui questi passaggi dai documenti di Ruby Instrumentation, OpenTelemetry Ruby zero-code instrumentation. Per un elenco delle librerie di instrumentazione rilasciate, consulta Registry . Compatibilità con Python Application Signals supporta le stesse librerie e framework di Distro for does. AWS OpenTelemetry Per ulteriori informazioni, consulta Pacchetti supportati all'indirizzo. opentelemetry-python-contrib Prima di abilitare Application Signals per le applicazioni Python, tieni presente le considerazioni riportate di seguito. In alcune applicazioni containerizzate, l'assenza della variabile di ambiente PYTHONPATH può talvolta impedire l'avvio dell'applicazione. Per risolvere questo problema, assicurati di impostare la variabile di ambiente PYTHONPATH sulla posizione della directory di lavoro dell'applicazione. Ciò è dovuto a un problema noto con la OpenTelemetry strumentazione automatica. Per ulteriori informazioni su questo problema, consulta Python autoinstrumentation setting of PYTHONPATH is not compliant . Per le applicazioni Django, ci sono configurazioni aggiuntive richieste, che sono descritte nella documentazione di Python OpenTelemetry . Usa il flag --noreload per impedire il ricaricamento automatico. Imposta la variabile di ambiente DJANGO_SETTINGS_MODULE sulla posizione del file settings.py dell'applicazione Django. Ciò garantisce che OpenTelemetry possa accedere e integrarsi correttamente con le impostazioni di Django. Compatibilità con Node.js Application Signals supporta le stesse librerie e framework Node.js di AWS Distro for does. OpenTelemetry Per ulteriori informazioni, consulta Supported instrumentations . Limitazioni note di Node.js con ESM AWS Distro for Opentelemetry Node.js supporta due sistemi di ECMAScript moduli: Modules (ESM) e CommonJS (CJS). Per abilitare Application Signals, ti consigliamo di utilizzare il formato del modulo CJS perché il supporto di ESM è sperimentale e in OpenTelemetry JavaScript corso di elaborazione. Per maggiori dettagli, consulta ECMAScript Modules vs. CommonJS su. GitHub Per determinare se la tua applicazione utilizza CJS e non ESM, assicurati che non soddisfi le condizioni per abilitare ESM. Per ulteriori informazioni su queste condizioni, consulta Enabling nella documentazione di Node.js. La AWS Distro for Opentelemetry Node.js fornisce un supporto limitato per ESM basato sul supporto sperimentale per ESM. OpenTelemetry JavaScript Ciò significa che: La versione di Node.js deve essere 18.19.0 o successiva. L'applicazione Node.js che desideri instrumentare deve includere @aws/aws-distro-opentelemetry-node-autoinstrumentation e @opentelemetry/instrumentation come dipendenze. L'applicazione Node.js che desideri instrumentare deve iniziare con la seguente opzione di nodo: NODE_OPTIONS=' --import @aws/aws-distro-opentelemetry-node-autoinstrumentation/register --experimental-loader=@opentelemetry/instrumentation/hook.mjs' Per abilitare Application Signals con il formato del modulo ESM Node.js, forniamo diverse configurazioni per diverse piattaforme: Amazon EKS — Configurazione di un'applicazione Node.js con il formato del modulo ESM Amazon ECS con strategia sidecar : Setting up a Node.js application with the ESM module format Amazon ECS con strategia daemon : Setting up a Node.js application with the ESM module format Amazon ECS con AWS CDK Amazon EC2 — Setting up a Node.js application with the ESM module format Kubernetes – Configurazione di un'applicazione Node.js con il formato del modulo ESM GoLang compatibilità Application Signals supporta GoLang applicazioni con strumentazione Zero Code. OpenTelemetry A tale scopo non è AWS disponibile alcun SDK Distro for Open Telemetry (ADOT). È necessario utilizzare lo standard OpenTelemetry Instrumentation SDK con Transaction Search abilitato. Per iniziare a utilizzare la strumentazione a codice zero in GoLang, segui questi passaggi dai documenti di Instrumentation, Guida introduttiva a Go OpenTelemetry GoLang Automatic Instrumentation. OpenTelemetry Considerazioni sull'implementazione e strumentazione GoLang Scopri importanti dettagli di implementazione per l'utilizzo della strumentazione. GoLang Questa guida spiega come implementare la propagazione esplicita del contesto nelle GoLang applicazioni e configurare gli Application Signals. Una corretta implementazione della GoLang strumentazione consente di monitorare e analizzare efficacemente le prestazioni dell'applicazione. Strumentazione dell'SDK AWS La libreria di strumentazione automatica Golang non supporta la strumentazione AWS SDK pronta all'uso. È necessario utilizzare l'instrumentazione della libreria otelaws insieme all'agente di instrumentazione automatica: Installa la dipendenza richiesta: go get go.opentelemetry.io/contrib/instrumentation/github.com/aws/aws-sdk-go-v2/otelaws Aggiungi la seguente linea all'applicazione: otelaws.AppendMiddlewares(&cfg.APIOptions) Crea client successivi con l'oggetto precedente: AWS aws.Config s3Client := s3.NewFromConfig(cfg) L'esempio seguente genererà intervalli per AWS le chiamate e si integra con la strumentazione automatica. func handleRequest(ctx context.Context) error { cfg, err := config.LoadDefaultConfig(ctx) if err != nil { return err } // Add OpenTelemetry instrumentation middleware to the AWS config otelaws.AppendMiddlewares(&cfg.APIOptions) // Create S3 client with the instrumented config s3Client := s3.NewFromConfig(cfg) // Now any operations with this client will be traced // with the context from the upstream call _, err = s3Client.ListBuckets(ctx, &s3.ListBucketsInput { }) return err } Per informazioni sulla configurazione dell'eseguibile di instrumentazione automatica, consulta Configuration methods . Instrumentazione delle chiamate HTTP Le chiamate HTTP possono dividere le tracce quando il contesto non viene passato tra le richieste: i client HTTP devono utilizzare NewRequestWithContext() invece di NewRequest() per garantire che il servizio downstream utilizzi lo stesso contesto. Quando entrambi i servizi dispongono di agenti di strumentazione, gli span si connettono allo stesso ID di traccia per fornire visibilità. end-to-end func makeDownstreamCall(ctx context.Context, url string) ([]byte, error) { client := &http.Client { } // Create request with context from the upstream call req, err := http.NewRequestWithContext(ctx, http.MethodGet, url, nil) if err != nil { return nil, err } // Execute the request resp, err := client.Do(req) if err != nil { return nil, err } defer resp.Body.Close() } Instrumentazione delle chiamate SQL Gli intervalli SQL possono disconnettersi dall'intervallo principale, facendo sì che le chiamate del client vengano dedotte come intervalli del server. Ciò si verifica quando le chiamate SQL non ricevono il contesto dai rispettivi gestori a monte. Le chiamate SQL standard come Query e Exec utilizzano context.Background() per impostazione predefinita, non il contesto di chi effettua la chiamata a monte. Sostituisci le chiamate SQL standard con i loro equivalenti sensibili al contesto: Utilizza QueryContext al posto di Query Utilizza ExecContext al posto di Exec Questi metodi passano il contesto della richiesta a monte alle chiamate DB, mantenendo la corretta continuità di traccia. func queryDatabase(ctx context.Context, db *sql.DB, userID string) (*sql.Rows, error) { // This breaks the trace context // row := db.Query("SELECT name FROM users WHERE id = $1", userID) // This passes the context from the upstream call for trace continuity rows, err := db.QueryContext(ctx, "SELECT name FROM users WHERE id = $1", userID) return rows, error } Nota L'attributo db.system non è attualmente supportato per le chiamate SQL. Questa limitazione influisce sulla capacità CloudWatch di identificare con precisione i client del database. Di conseguenza, verranno visualizzate le dipendenze UnknownRemoteService al posto del nome del client DB che effettua la query. Rilevatori di risorse L'instrumentazione automatica Go attualmente non supporta la configurazione dei rilevatori di risorse in fase di runtime. La OpenTelemetry community sta lavorando a una funzionalità per configurare i rilevatori di risorse utilizzando variabili di ambiente. Cerca questa funzionalità in uno dei prossimi aggiornamenti. Nel frattempo, è possibile utilizzare l' CloudWatch agente con strumentazione automatica per generare automaticamente gli attributi delle risorse host. Tabella per il supporto della versione del runtime Lingua Versione di runtime Java JVM versioni 8, 11, 17, 21 e 23 Python Sono supportate le versioni di Python 3.9 e successive .NET La versione 1.6.0 e precedenti supportano .NET 6, 8 e .NET Framework 4.6.2 e versioni successive La versione 1.7.0 e successive supportano .NET 8, 9 e .NET Framework 4.6.2 e versioni successive Node.js Node.js versioni 14, 16, 18, 20 e 22 PHP PHP versione 8.0 e successive Ruby CRuby >= 3.1, >= 9.3.2.0 o >= JRuby 22.1 TruffleRuby GoLang Golang versione 1.18 e successive Problemi noti È noto che la raccolta di metriche di runtime nella versione Java SDK v1.32.5 non funziona con le applicazioni che utilizzano Wildfly. JBoss Questo problema si estende al componente aggiuntivo Amazon CloudWatch Observability EKS, interessando le versioni successive 2.3.0-eksbuild.1 . 2.6.0-eksbuild.1 Il problema è stato risolto nella versione Java SDK v1.32.6 e nella versione aggiuntiva Amazon CloudWatch Observability EKS. v3.0.0-eksbuild.1 Se riscontri problemi, esegui l'upgrade della versione dell'SDK per Java o disabilita la raccolta delle metriche di runtime aggiungendo la variabile di ambiente OTEL_AWS_APPLICATION_SIGNALS_RUNTIME_ENABLED=false all'applicazione. JavaScript è disabilitato o non è disponibile nel tuo browser. Per usare la documentazione AWS, JavaScript deve essere abilitato. Consulta le pagine della guida del browser per le istruzioni. Convenzioni dei documenti Autorizzazioni necessarie per Application Signals Configurazioni di instrumentazione supportate Questa pagina ti è stata utile? - Sì Grazie per averci comunicato che stiamo facendo un buon lavoro! Se hai un momento, ti invitiamo a dirci che cosa abbiamo fatto che ti è piaciuto così possiamo offrirti altri contenuti simili. Questa pagina ti è stata utile? - No Grazie per averci comunicato che questa pagina ha bisogno di essere modificata. Siamo spiacenti di non aver soddisfatto le tue esigenze. Se hai un momento, ti invitiamo a dirci come possiamo migliorare la documentazione. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/es_es/AmazonCloudWatch/latest/monitoring/CloudWatch_MultiDataSources-Custom-Use.html | Uso del origen de datos personalizado - Amazon CloudWatch Uso del origen de datos personalizado - Amazon CloudWatch Documentación Amazon CloudWatch Guía del usuario Cómo pasar argumentos a la función de Lambda Uso del origen de datos personalizado Después de crear un origen de datos, puede utilizarlo para consultar los datos de ese origen, visualizarlos y configurar alarmas. Si usó una plantilla para crear el conector de origen de datos personalizado o agregó la etiqueta que aparece en Paso 3: asociar la etiqueta de recurso a la función de Lambda , puede seguir los pasos que se indican en Creación de un gráfico de métricas a partir de otro origen de datos para consultarla. También puede utilizar la función matemática métrica LAMBDA para consultarla, como se explica en la siguiente sección. Para obtener información sobre cómo crear alarmas en métricas del origen de datos, consulte Creación de una alarma basada en un origen de datos conectado . En este tema se describe cómo pasar argumentos de la función de Lambda al origen de datos personalizado. Cómo pasar argumentos a la función de Lambda La forma recomendada de pasar argumentos al origen de datos personalizado es utilizar el generador de consultas de la consola de CloudWatch cuando se consulta el origen de datos. También puede usar la función de Lambda para recuperar datos del origen de datos mediante la nueva expresión LAMBDA en las matemáticas métricas de CloudWatch. LAMBDA("LambdaFunctionName" [, optional-arg]*) optional-arg es de hasta 20 cadenas, números o valores booleanos. Por ejemplo, param , 3.14 o true . nota Los conectores de orígenes de datos de CloudWatch no admiten cadenas multilínea. Cada fuente de línea se reemplaza por un espacio cuando se ejecuta la consulta o cuando se crea una alarma o un widget de panel con la consulta. En algunos casos, esto puede hacer que la consulta no sea válida. Al utilizar la función matemática de métrica LAMBDA , puede proporcionar el nombre de la función ( "MyFunction" ). Si la política de recursos lo permite, también puede usar una versión específica de la función ( "MyFunction:22" ) o un alias de función de Lambda ( "MyFunction:MyAlias" ). Imposibilidad de utilizar * A continuación se muestran algunos ejemplos de llamamiento de la función de LAMBDA . LAMBDA("AmazonOpenSearchDataSource", "MyDomain", "some-query") LAMBDA("MyCustomDataSource", true, "fuzzy", 99.9) La función matemática de la métrica LAMBDA devuelve una lista de series temporales que puede devolverse al solicitante o combinarse con otras funciones matemáticas métricas. El siguiente es un ejemplo de combinación de LAMBDA con otras funciones matemáticas métricas. FILL(LAMBDA("AmazonOpenSearchDataSource", "MyDomain", "some-query"), 0) JavaScript está desactivado o no está disponible en su navegador. Para utilizar la documentación de AWS, debe estar habilitado JavaScript. Para obtener más información, consulte las páginas de ayuda de su navegador. Convenciones del documento Creación de un conector personalizado a un origen de datos Eliminación de un conector de un origen de datos ¿Le ha servido de ayuda esta página? - Sí Gracias por hacernos saber que estamos haciendo un buen trabajo. Si tiene un momento, díganos qué es lo que le ha gustado para que podamos seguir trabajando en esa línea. ¿Le ha servido de ayuda esta página? - No Gracias por informarnos de que debemos trabajar en esta página. Lamentamos haberle defraudado. Si tiene un momento, díganos cómo podemos mejorar la documentación. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/id_id/AmazonCloudWatch/latest/logs/LogsAnomalyDetection.html | Deteksi anomali log - CloudWatch Log Amazon Deteksi anomali log - CloudWatch Log Amazon Dokumentasi Amazon CloudWatch Panduan Pengguna Tingkat keparahan dan prioritas anomali dan pola Waktu visibilitas anomali Menekan anomali Pertanyaan umum Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris. Deteksi anomali log Anda dapat mendeteksi anomali dalam data log Anda dengan dua cara: dengan membuat detektor anomali log untuk pemantauan berkelanjutan, atau dengan menggunakan anomaly detection perintah dalam kueri Wawasan CloudWatch Log untuk analisis sesuai permintaan. Detektor anomali log memindai peristiwa log yang dicerna ke dalam grup log dan menemukan anomali dalam data log secara otomatis. Deteksi anomali menggunakan pembelajaran mesin dan pengenalan pola untuk menetapkan dasar konten log yang khas. Untuk analisis sesuai permintaan, Anda dapat menggunakan anomaly detection perintah dalam kueri Wawasan CloudWatch Log untuk mengidentifikasi pola yang tidak biasa dalam data deret waktu. Untuk informasi lebih lanjut tentang deteksi anomali berbasis kueri, lihat. Menggunakan deteksi anomali di Wawasan Log CloudWatch Setelah Anda membuat detektor anomali untuk grup log, ia berlatih menggunakan dua minggu terakhir peristiwa log di grup log untuk pelatihan. Periode pelatihan bisa memakan waktu hingga 15 menit. Setelah pelatihan selesai, ia mulai menganalisis log masuk untuk mengidentifikasi anomali, dan anomali ditampilkan di konsol CloudWatch Log untuk Anda periksa. CloudWatch Pengenalan pola log mengekstrak pola log dengan mengidentifikasi konten statis dan dinamis di log Anda. Pola berguna untuk menganalisis kumpulan log besar karena sejumlah besar peristiwa log sering dapat dikompresi menjadi beberapa pola. Misalnya, lihat contoh berikut dari tiga peristiwa log. 2023-01-01 19:00:01 [INFO] Calling DynamoDB to store for ResourceID: 12342342k124-12345 2023-01-01 19:00:02 [INFO] Calling DynamoDB to store for ResourceID: 324892398123-1234R 2023-01-01 19:00:03 [INFO] Calling DynamoDB to store for ResourceID: 3ff231242342-12345 Dalam sampel sebelumnya, ketiga peristiwa log mengikuti satu pola: <Date-1> <Time-2> [INFO] Calling DynamoDB to store for resource id <ResourceID-3> Bidang dalam pola disebut token . Bidang yang bervariasi dalam suatu pola, seperti ID permintaan atau stempel waktu, disebut sebagai token dinamis . Setiap nilai berbeda yang ditemukan untuk token dinamis disebut nilai token . Jika CloudWatch Log dapat menyimpulkan jenis data yang diwakili oleh token dinamis, itu akan menampilkan token sebagai < string - number > . string Ini adalah deskripsi dari jenis data yang diwakili oleh token. number Menunjukkan di mana dalam pola token ini muncul, dibandingkan dengan token dinamis lainnya. CloudWatch Log menetapkan bagian string dari nama berdasarkan analisis konten peristiwa log yang berisi itu. Jika CloudWatch Log tidak dapat menyimpulkan jenis data yang diwakili oleh token dinamis, ia menampilkan token sebagai <Token- number >, dan number menunjukkan di mana dalam pola token ini muncul, dibandingkan dengan token dinamis lainnya. Contoh umum token dinamis termasuk kode kesalahan, alamat IP, stempel waktu, dan permintaan. IDs Deteksi anomali log menggunakan pola-pola ini untuk menemukan anomali. Setelah periode pelatihan model detektor anomali, log dievaluasi terhadap tren yang diketahui. Detektor anomali menandai fluktuasi yang signifikan sebagai anomali. Bab ini menjelaskan cara mengaktifkan deteksi anomali, melihat anomali, membuat alarm untuk detektor anomali log, dan metrik yang diterbitkan oleh detektor anomali log. Ini juga menjelaskan cara mengenkripsi detektor anomali dan hasilnya dengan. AWS Key Management Service Membuat detektor anomali log tidak menimbulkan biaya. Tingkat keparahan dan prioritas anomali dan pola Setiap anomali yang ditemukan oleh detektor anomali log diberi prioritas. Setiap pola yang ditemukan diberi tingkat keparahan . Prioritas dihitung secara otomatis, dan didasarkan pada tingkat keparahan pola dan jumlah penyimpangan dari nilai yang diharapkan. Misalnya, jika nilai token tertentu tiba-tiba meningkat sebesar 500%, anomali itu mungkin ditetapkan sebagai HIGH prioritas bahkan jika tingkat keparahannya. NONE Tingkat keparahan hanya didasarkan pada kata kunci yang ditemukan dalam pola seperti FATAL , ERROR , dan WARN . Jika tidak satu pun dari kata kunci ini ditemukan, tingkat keparahan pola ditandai sebagai NONE . Waktu visibilitas anomali Saat Anda membuat detektor anomali, Anda menentukan periode visibilitas anomali maksimum untuknya. Ini adalah jumlah hari anomali ditampilkan di konsol dan dikembalikan oleh operasi ListAnomalies API. Setelah periode waktu ini berlalu untuk anomali, jika terus terjadi, itu secara otomatis diterima sebagai perilaku biasa dan model detektor anomali berhenti menandainya sebagai anomali. Jika Anda tidak menyesuaikan waktu visibilitas saat membuat detektor anomali, 21 hari digunakan sebagai default. Menekan anomali Setelah anomali ditemukan, Anda dapat memilih untuk menekannya sementara atau permanen. Menekan anomali menyebabkan detektor anomali berhenti menandai kejadian ini sebagai anomali untuk jumlah waktu yang Anda tentukan. Ketika Anda menekan anomali, Anda dapat memilih untuk menekan hanya anomali spesifik itu, atau menekan semua anomali yang terkait dengan pola di mana anomali itu ditemukan. Anda masih dapat melihat anomali yang ditekan di konsol. Anda juga dapat memilih untuk berhenti menekannya. Pertanyaan umum Apakah AWS menggunakan data saya untuk melatih algoritme pembelajaran mesin untuk AWS digunakan atau untuk pelanggan lain? Tidak. Model deteksi anomali yang dibuat oleh pelatihan didasarkan pada peristiwa log dalam grup log dan hanya digunakan dalam grup log itu dan akun itu AWS . Jenis peristiwa log apa yang bekerja dengan baik dengan deteksi anomali? Deteksi anomali log sangat cocok untuk: Log aplikasi dan jenis log lainnya di mana sebagian besar entri log sesuai dengan pola tipikal. Grup log dengan peristiwa yang berisi tingkat log atau kata kunci tingkat keparahan seperti INFO , ERROR , dan DEBUG sangat cocok untuk mencatat deteksi anomali. Deteksi anomali log tidak cocok untuk: Peristiwa log dengan struktur JSON yang sangat panjang, seperti Log. CloudTrail Analisis pola hanya menganalisis hingga 1500 karakter pertama dari garis log, sehingga karakter apa pun di luar batas itu dilewati. Audit atau log akses, seperti log aliran VPC, juga akan kurang berhasil dengan deteksi anomali. Deteksi anomali dimaksudkan untuk menemukan masalah aplikasi, jadi mungkin tidak cocok untuk anomali jaringan atau akses. Untuk membantu Anda menentukan apakah detektor anomali cocok untuk grup log tertentu, gunakan analisis pola CloudWatch Log untuk menemukan jumlah pola dalam peristiwa log dalam grup. Jika jumlah pola tidak lebih dari sekitar 300, deteksi anomali mungkin bekerja dengan baik. Untuk informasi lebih lanjut tentang analisis pola, lihat Analisis pola . Apa yang ditandai sebagai anomali? Kejadian berikut dapat menyebabkan peristiwa log ditandai sebagai anomali: Peristiwa log dengan pola yang tidak terlihat sebelumnya di grup log. Variasi yang signifikan terhadap pola yang diketahui. Nilai baru untuk token dinamis yang memiliki serangkaian nilai biasa yang terpisah. Perubahan besar dalam jumlah kemunculan nilai untuk token dinamis. Meskipun semua item sebelumnya mungkin ditandai sebagai anomali, itu tidak semua berarti bahwa aplikasi berkinerja buruk. Misalnya, higher-than-usual sejumlah nilai 200 keberhasilan mungkin ditandai sebagai anomali. Dalam kasus seperti ini, Anda mungkin mempertimbangkan untuk menekan anomali ini yang tidak menunjukkan masalah. Apa yang terjadi dengan data sensitif yang sedang disembunyikan? Setiap bagian dari peristiwa log yang disamarkan sebagai data sensitif tidak dipindai untuk anomali. Untuk informasi selengkapnya tentang menyembunyikan data sensitif, lihat Membantu melindungi data log sensitif dengan masking . Javascript dinonaktifkan atau tidak tersedia di browser Anda. Untuk menggunakan Dokumentasi AWS, Javascript harus diaktifkan. Lihat halaman Bantuan browser Anda untuk petunjuk. Konvensi Dokumen Memecahkan masalah kueri terjadwal Menggunakan deteksi anomali di Wawasan Log CloudWatch Apakah halaman ini membantu Anda? - Ya Terima kasih telah memberitahukan bahwa hasil pekerjaan kami sudah baik. Jika Anda memiliki waktu luang, beri tahu kami aspek apa saja yang sudah bagus, agar kami dapat menerapkannya secara lebih luas. Apakah halaman ini membantu Anda? - Tidak Terima kasih telah memberi tahu kami bahwa halaman ini perlu ditingkatkan. Maaf karena telah mengecewakan Anda. Jika Anda memiliki waktu luang, beri tahu kami bagaimana dokumentasi ini dapat ditingkatkan. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/es_es/AmazonCloudWatch/latest/logs/LogsAnomalyDetection.html | Detección de anomalías en registros - Amazon CloudWatch Logs Detección de anomalías en registros - Amazon CloudWatch Logs Documentación Amazon CloudWatch Guía del usuario de Gravedad y prioridad de las anomalías y patrones Tiempo de visibilidad de anomalías Supresión de anomalías Preguntas frecuentes Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés. Detección de anomalías en registros Puede detectar anomalías en los datos de registro de dos maneras: creando un detector de anomalías de registro para una supervisión continua o utilizando el anomaly detection comando en las consultas de CloudWatch Logs Insights para realizar análisis bajo demanda. Un detector de anomalías de registro analiza los eventos de registro incorporados a un grupo de registros y encuentra anomalías de manera automática en los datos del registro. La detección de anomalías utiliza métodos de machine learning y el reconocimiento de patrones para establecer líneas base del contenido típico de los registros. Para el análisis bajo demanda, puede usar el anomaly detection comando en las consultas de CloudWatch Logs Insights para identificar patrones inusuales en los datos de series temporales. Para obtener más información sobre la detección de anomalías basadas en consultas, consulte Uso de la detección de anomalías en Logs Insights CloudWatch . Después de crear un detector de anomalías para un grupo de registro, se entrena mediante los eventos de registro de las últimas dos semanas en el grupo de registro para la formación. El período de formación puede tardar hasta 15 minutos. Una vez finalizada la formación, comienza a analizar los registros entrantes para identificar las anomalías, que se muestran en la consola de CloudWatch registros para que las pueda examinar. CloudWatch El reconocimiento de patrones de registros extrae los patrones de registro al identificar el contenido estático y dinámico de los registros. Los patrones son útiles para analizar conjuntos de registros grandes porque, a menudo, una gran cantidad de eventos de registro se pueden comprimir en unos pocos patrones. Por ejemplo, consulte el siguiente ejemplo de tres eventos de registro. 2023-01-01 19:00:01 [INFO] Calling DynamoDB to store for ResourceID: 12342342k124-12345 2023-01-01 19:00:02 [INFO] Calling DynamoDB to store for ResourceID: 324892398123-1234R 2023-01-01 19:00:03 [INFO] Calling DynamoDB to store for ResourceID: 3ff231242342-12345 En el ejemplo anterior, los tres eventos de registro siguen un patrón: <Date-1> <Time-2> [INFO] Calling DynamoDB to store for resource id <ResourceID-3> Los campos dentro de un patrón se denominan tokens . Los campos que varían dentro de un patrón, como un ID de solicitud o una marca de tiempo, se denominan tokens dinámicos . Cada valor diferente que se encuentre en un token dinámico se denomina valor de token . Si CloudWatch Logs puede deducir el tipo de datos que representa un token dinámico, muestra el token como < string - number > . string Es una descripción del tipo de datos que representa el token. number Muestra en qué parte del patrón aparece este token, en comparación con los otros tokens dinámicos. CloudWatch Los registros asignan a la cadena una parte del nombre en función del análisis del contenido de los eventos del registro que lo contienen. Si CloudWatch Logs no puede deducir el tipo de datos que representa un token dinámico, muestra el token como <Token- number > e number indica en qué parte del patrón aparece este token, en comparación con los demás tokens dinámicos. Algunos ejemplos comunes de tokens dinámicos son los códigos de error, las direcciones IP, las marcas de tiempo y las solicitudes. IDs La detección de anomalías en los registros utiliza estos patrones para encontrar anomalías. Tras el período de entrenamiento del modelo de detector de anomalías, los registros se evalúan comparándolos con las tendencias conocidas. El detector de anomalías marca las fluctuaciones significativas como anomalías. En este capítulo se describe cómo habilitar la detección de anomalías, ver las anomalías, crear alarmas para los detectores de anomalías de registro y las métricas que publican estos últimos. También describe cómo cifrar el detector de anomalías y sus resultados con. AWS Key Management Service La creación de detectores de anomalías de registro no conlleva cargos. Gravedad y prioridad de las anomalías y patrones A cada anomalía que descubre un detector de anomalías de registro se le asigna una prioridad . A cada patrón encontrado se le asigna una gravedad . La prioridad se calcula automáticamente y se basa tanto en el nivel de gravedad del patrón como en la cantidad de desviación con respecto a los valores esperados. Por ejemplo, si un determinado valor del token aumenta repentinamente un 500 %, esa anomalía puede designarse como de prioridad HIGH aunque su gravedad sea NONE . La gravedad se basa únicamente en las palabras clave que se encuentran en patrones como FATAL , ERROR y WARN . Si no se encuentra ninguna de estas palabras clave, la gravedad del patrón se marca como NONE . Tiempo de visibilidad de anomalías Al crear un detector de anomalías, debe especificar el período máximo de visibilidad de las anomalías. Es el número de días durante los que la anomalía se muestra en la consola y la devuelve la operación de la ListAnomalies API. Una vez transcurrido este período de tiempo en una anomalía, si continúa ocurriendo, se acepta automáticamente como un comportamiento normal y el modelo detector de anomalías deja de marcarla como tal. Si no ajusta el tiempo de visibilidad al crear un detector de anomalías, se utilizan 21 días de forma predeterminada. Supresión de anomalías Una vez detectada una anomalía, puede suprimirla temporal o permanentemente. Al suprimir una anomalía, el detector de anomalías deja de marcar la incidencia como una anomalía durante el tiempo que especifique. Al suprimir una anomalía, puede optar por suprimir solo esa anomalía específica o suprimir todas las anomalías relacionadas con el patrón en el que se encontró esta. Puede seguir viendo las anomalías suprimidas en la consola. También puede dejar de suprimirlas. Preguntas frecuentes ¿ AWS Utilizo mis datos para entrenar los algoritmos de aprendizaje automático para AWS su uso o para otros clientes? No. El modelo de detección de anomalías creado por la capacitación se basa en los eventos de registro de un grupo de registros y solo se usa dentro de ese grupo de registros y esa AWS cuenta. ¿Qué tipos de eventos de registro funcionan bien con la detección de anomalías? La detección de anomalías en los registros es adecuada para: los registros de aplicaciones y otros tipos de registros en los que la mayoría de las entradas de registro se ajustan a los patrones típicos. Los grupos de registro con eventos que contienen un nivel de registro o palabras clave de gravedad, como INFO , ERROR y DEBUG , son especialmente adecuados para la detección de anomalías en los registros. La detección de anomalías en los registros no es adecuada para: Registrar eventos con estructuras JSON extremadamente largas, como CloudTrail los registros. El análisis de patrones analiza solo los primeros 1500 caracteres de una línea de registro, por lo que se omite cualquier carácter que supere ese límite. Los registros de auditoría o acceso, como los registros de flujo de VPC, también tendrán menos éxito con la detección de anomalías. El objetivo de la detección de anomalías es detectar problemas en las aplicaciones, por lo que es posible que esta opción no sea adecuada para las anomalías de acceso o de red. Para ayudarle a determinar si un detector de anomalías es adecuado para un grupo de registros determinado, utilice el análisis de patrones de CloudWatch registros para encontrar el número de patrones en los eventos de registro del grupo. Si el número de patrones no supera los 300, la detección de anomalías debería funcionar bien. Para obtener más información sobre el análisis de patrones, consulte Análisis del patrón . ¿Qué se marca como una anomalía? Los siguientes resultados pueden provocar que un evento de registro se marque como una anomalía: Un evento de registro con un patrón que no se había visto antes en el grupo de registro. Una variación significativa de un patrón conocido. Un valor nuevo de un token dinámico que tiene un conjunto discreto de valores habituales. Un cambio importante en el número de apariciones de un valor de un token dinámico. Si bien todos los elementos anteriores pueden marcarse como anomalías, no todos ellos significan que la aplicación esté funcionando mal. Por ejemplo, higher-than-usual varios valores de 200 éxito pueden marcarse como anomalías. En casos como este, considere la posibilidad de suprimir las anomalías que no indiquen problemas. ¿Qué ocurre con los datos confidenciales que se enmascaran? Las partes de los eventos de registro que estén enmascaradas como datos confidenciales no se escanean para detectar anomalías. Para obtener más información, consulte Protección de datos de registro confidenciales con el enmascaramiento . JavaScript está desactivado o no está disponible en su navegador. Para utilizar la documentación de AWS, debe estar habilitado JavaScript. Para obtener más información, consulte las páginas de ayuda de su navegador. Convenciones del documento Solución de problemas de consultas programadas Uso de la detección de anomalías en Logs Insights CloudWatch ¿Le ha servido de ayuda esta página? - Sí Gracias por hacernos saber que estamos haciendo un buen trabajo. Si tiene un momento, díganos qué es lo que le ha gustado para que podamos seguir trabajando en esa línea. ¿Le ha servido de ayuda esta página? - No Gracias por informarnos de que debemos trabajar en esta página. Lamentamos haberle defraudado. Si tiene un momento, díganos cómo podemos mejorar la documentación. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/it_it/AmazonCloudWatch/latest/monitoring/Services.html | Monitoraggio dell'integrità operativa delle applicazioni con Application Signals - Amazon CloudWatch Monitoraggio dell'integrità operativa delle applicazioni con Application Signals - Amazon CloudWatch Documentazione Amazon CloudWatch Guida per l’utente Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà. Monitoraggio dell'integrità operativa delle applicazioni con Application Signals Usa Application Signals all'interno della CloudWatch console per monitorare e risolvere i problemi relativi allo stato operativo delle tue applicazioni: Monitora i servizi delle applicazioni : nell'ambito del monitoraggio operativo quotidiano, utilizza la pagina Servizi per visualizzare un riepilogo di tutti i tuoi servizi. Visualizza i servizi con il tasso di errore o la latenza più elevati e scopri quali servizi presentano indicatori di livello di servizio non integri (). SLIs Seleziona un servizio per aprire la pagina dei dettagli del servizio e visualizzare parametri dettagliati, operazioni di servizio, canary Synthetics e richieste client. Questo può aiutarti a identificare la causa principale dei problemi operativi e risolverli. Ispeziona la topologia dell'applicazione : utilizza la Mappa dell'applicazione per comprendere e monitorare la topologia dell'applicazione nel tempo, comprese le relazioni tra client, canary synthetics, servizi e dipendenze. Visualizza istantaneamente lo stato dell'indicatore del livello di servizio (SLI) e visualizza i parametri chiave come il volume delle chiamate, la frequenza di errore e la latenza. Esplora e ottieni informazioni più dettagliate nella pagina dei dettagli del servizio . Osserva uno scenario di esempio che dimostra come queste pagine possono essere utilizzate per risolvere rapidamente un problema di integrità del servizio operativo, a partire dal rilevamento iniziale fino all'identificazione della causa principale. In che modo Application Signals consente il monitoraggio dello stato operativo Dopo aver abilitato l'applicazione per Application Signals, i servizi dell'applicazione e le relative dipendenze vengono rilevati automaticamente e visualizzati nelle pagine Servizi , Dettagli del servizio e Mappa dell'applicazione . APIs Application Signals raccoglie informazioni da più fonti per consentire il rilevamento servizi e il monitoraggio dello stato operativo: AWS Distro for OpenTelemetry (ADOT) : come parte dell'abilitazione dei segnali di applicazione, le librerie di strumentazione automatica OpenTelemetry Java e Python sono configurate per emettere metriche e tracce raccolte dall'agente. CloudWatch I parametri e le tracce vengono utilizzati per consentire l'individuazione di servizi, operazioni, dipendenze e altre informazioni sui servizi. Obiettivi a livello di servizio (SLOs): dopo aver creato gli obiettivi del livello di servizio per i servizi, le pagine Servizi, Dettagli del servizio e Mappa delle applicazioni mostrano lo stato dell'indicatore del livello di servizio (SLI). SLIs può monitorare la latenza, la disponibilità e altre metriche operative. CloudWatch Canari Synthetics : quando configuri il tracciamento a raggi X sui tuoi canarini, le chiamate ai tuoi servizi dagli script Canary vengono associate al servizio e visualizzate nella pagina dei dettagli del servizio. CloudWatch Monitoraggio degli utenti in tempo reale (RUM) : quando il tracciamento X-Ray è abilitato sul client web CloudWatch RUM, le richieste ai servizi vengono automaticamente associate e visualizzate nella pagina dei dettagli del servizio. AWS Service Catalog AppRegistry — Application Signals rileva automaticamente AWS le risorse all'interno del tuo account e ti consente di raggrupparle in applicazioni logiche create in. AppRegistry Il nome dell'applicazione visualizzato nella pagina Servizi si basa sulla risorsa di calcolo sottostante su cui sono in esecuzione i servizi. Nota Application Signals visualizza i servizi e le operazioni in base ai parametri e alle tracce emesse all'interno del filtro temporale corrente scelto. (Per impostazione predefinita, si tratta delle ultime tre ore). Se non è presente alcuna attività all'interno del filtro temporale corrente per un servizio, un'operazione, una dipendenza, canary Synthetics o pagina client, non sarà visibile. È possibile visualizzare fino a 1.000 servizi. L'individuazione dei servizi e della topologia dei servizi potrebbe impiegare fino a 10 minuti. La valutazione dello stato dell'indicatore del livello di servizio (SLI) potrebbe impiegare fino a 15 minuti. Nota Attualmente, la console Application Signals supporta solo la scelta di un massimo di 1 giorno in un intervallo di tempo di 30 giorni. JavaScript è disabilitato o non è disponibile nel tuo browser. Per usare la documentazione AWS, JavaScript deve essere abilitato. Consulta le pagine della guida del browser per le istruzioni. Convenzioni dei documenti Gestione di operazioni ad alta cardinalità Visualizza i tuoi servizi con la pagina Servizi Questa pagina ti è stata utile? - Sì Grazie per averci comunicato che stiamo facendo un buon lavoro! Se hai un momento, ti invitiamo a dirci che cosa abbiamo fatto che ti è piaciuto così possiamo offrirti altri contenuti simili. Questa pagina ti è stata utile? - No Grazie per averci comunicato che questa pagina ha bisogno di essere modificata. Siamo spiacenti di non aver soddisfatto le tue esigenze. Se hai un momento, ti invitiamo a dirci come possiamo migliorare la documentazione. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/Subscriptions.html | Real-time processing of log data with subscriptions - Amazon CloudWatch Logs Real-time processing of log data with subscriptions - Amazon CloudWatch Logs Documentation Amazon CloudWatch User Guide Real-time processing of log data with subscriptions You can use subscriptions to get access to a real-time feed of log events from CloudWatch Logs and have it delivered to other services such as an Amazon Kinesis stream, an Amazon Data Firehose stream, or AWS Lambda for custom processing, analysis, or loading to other systems. When log events are sent to the receiving service, they are base64 encoded and compressed with the gzip format. You can also use CloudWatch Logs centralization to replicate log data from multiple accounts and regions into a central location. For more information, see Cross-account cross-Region log centralization . To begin subscribing to log events, create the receiving resource, such as a Amazon Kinesis Data Streams stream, where the events will be delivered. A subscription filter defines the filter pattern to use for filtering which log events get delivered to your AWS resource, as well as information about where to send matching log events to. Log events are sent to the receiving resource soon after being ingested, usually less than three minutes. Note If a log group with a subscription uses log transformation, the filter pattern is compared to the transformed versions of the log events. For more information, see Transform logs during ingestion . You can create subscriptions at the account level and at the log group level. Each account can have one account-level subscription filter per Region. Each log group can have up to two subscription filters associated with it. Note If the destination service returns a retryable error such as a throttling exception or a retryable service exception (HTTP 5xx for example), CloudWatch Logs continues to retry delivery for up to 24 hours. CloudWatch Logs doesn't try to re-deliver if the error is a non-retryable error, such as AccessDeniedException or ResourceNotFoundException. In these cases the subscription filter is disabled for up to 10 minutes, and then CloudWatch Logs retries sending logs to the destination. During this disabled period, logs are skipped. CloudWatch Logs also produces CloudWatch metrics about the forwarding of log events to subscriptions. For more information, see Monitoring with CloudWatch metrics . You can also use a CloudWatch Logs subscription to stream log data in near real time to an Amazon OpenSearch Service cluster. For more information, see Streaming CloudWatch Logs data to Amazon OpenSearch Service . Subscriptions are supported only for log groups in the Standard log class. For more information about log classes, see Log classes . Note Subscription filters might batch log events to optimize transmission and reduce the amount of calls made to the destination. Batching is not guaranteed but is used when possible. For batch processing and analysis of log data on a schedule, consider using Automating log analysis with scheduled queries . Scheduled queries run CloudWatch Logs Insights queries automatically and deliver results to destinations such as Amazon S3 buckets or Amazon EventBridge event buses. Contents Concepts Log group-level subscription filters Account-level subscription filters Cross-account cross-Region subscriptions Confused deputy prevention Log recursion prevention Javascript is disabled or is unavailable in your browser. To use the Amazon Web Services Documentation, Javascript must be enabled. Please refer to your browser's Help pages for instructions. Document Conventions Deleting a metric filter Concepts Did this page help you? - Yes Thanks for letting us know we're doing a good job! If you've got a moment, please tell us what we did right so we can do more of it. Did this page help you? - No Thanks for letting us know this page needs work. We're sorry we let you down. If you've got a moment, please tell us how we can make the documentation better. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/zh_tw/AmazonCloudWatch/latest/monitoring/CloudWatch-Agent-configure-related-telemetry.html | 設定相關實體的 CloudWatch 代理程式服務和環境名稱 - Amazon CloudWatch 設定相關實體的 CloudWatch 代理程式服務和環境名稱 - Amazon CloudWatch 文件 Amazon CloudWatch 使用者指南 本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。 設定相關實體的 CloudWatch 代理程式服務和環境名稱 CloudWatch 代理程式可以使用實體資料傳送指標和日誌,以支援 CloudWatch 主控台中的 探索相關窗格 。服務名稱或環境名稱可由 CloudWatch 代理程式 JSON 組態 設定。 注意 代理程式組態可能會被覆寫。如需有關代理程式如何決定要為相關實體傳送哪些資料的詳細資訊,請參閱 搭配相關遙測使用 CloudWatch 代理程式 。 對於指標,可於代理程式、指標或外掛程式層級設定。對於日誌,可於代理程式、日誌或檔案層級設定。一律使用最具體的組態。例如,若組態同時存在於代理程式層級與指標層級,則指標將使用指標組態,而任何其他項目 (日誌) 將使用代理程式組態。下列範例顯示設定服務名稱和環境名稱的不同方式。 { "agent": { "service.name": "agent-level-service", "deployment.environment": "agent-level-environment" }, "metrics": { "service.name": "metric-level-service", "deployment.environment": "metric-level-environment", "metrics_collected": { "statsd": { "service.name": "statsd-level-service", "deployment.environment": "statsd-level-environment", }, "collectd": { "service.name": "collectdd-level-service", "deployment.environment": "collectd-level-environment", } } }, "logs": { "service.name": "log-level-service", "deployment.environment": "log-level-environment", "logs_collected": { "files": { "collect_list": [ { "file_path": "/opt/aws/amazon-cloudwatch-agent/logs/amazon-cloudwatch-agent.log", "log_group_name": "amazon-cloudwatch-agent.log", "log_stream_name": "amazon-cloudwatch-agent.log", "service.name": "file-level-service", "deployment.environment": "file-level-environment" } ] } } } } 您的瀏覽器已停用或無法使用 Javascript。 您必須啟用 Javascript,才能使用 AWS 文件。請參閱您的瀏覽器說明頁以取得說明。 文件慣用形式 在 Amazon EC2 執行個體上安裝和設定 Prometheus 指標集合 啟動 CloudWatch 代理程式 此頁面是否有幫助? - 是 感謝您,讓我們知道我們做得很好! 若您有空,歡迎您告知我們值得讚許的地方,這樣才能保持良好服務。 此頁面是否有幫助? - 否 感謝讓我們知道此頁面仍須改善。很抱歉,讓您失望。 若您有空,歡迎您提供改善文件的方式。 | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/pt_br/AmazonCloudWatch/latest/monitoring/installing-cloudwatch-agent-ssm.html | Instalar o agente do CloudWatch usando o AWS Systems Manager - Amazon CloudWatch Instalar o agente do CloudWatch usando o AWS Systems Manager - Amazon CloudWatch Documentação Amazon CloudWatch Guia do usuário Instalação ou atualização do SSM Agent Verifique os pré-requisitos do Systems Manager Verificar o acesso à Internet Baixar o pacote do agente do CloudWatch para sua primeira instância Criar e modificar o arquivo de configuração do atendente Instalar o agente do CloudWatch em instâncias do EC2 Instalar o agente do CloudWatch em instâncias do EC2 (Opcional) Modificar a configuração comum e o perfil nomeado para o atendente do CloudWatch Instalar o agente do CloudWatch usando o AWS Systems Manager O uso do AWS Systems Manager facilita a instalação do agente do CloudWatch em uma frota de instâncias do Amazon EC2. É possível fazer o download do agente em um servidor e criar um arquivo de configuração do agente do CloudWatch para todos os servidores da frota. Em seguida, é possível usar o arquivo de configuração do Systems Manager que você criou para instalar o agente em outros servidores. Use os tópicos a seguir para instalar e executar o atendente do CloudWatch usando o AWS Systems Manager. Tópicos Instalar ou atualizar o agente do SSM Verifique os pré-requisitos do Systems Manager Verificar o acesso à Internet Baixar o pacote do agente do CloudWatch para sua primeira instância Criar e modificar o arquivo de configuração do atendente Instalar e iniciar o agente do CloudWatch em instâncias adicionais do EC2 usando sua configuração de agente Instalação do agente do CloudWatch em instâncias adicionais do EC2 usando sua configuração de agente (Opcional) Modificar a configuração comum e o perfil nomeado para o atendente do CloudWatch Instalar ou atualizar o agente do SSM Em uma instância do Amazon EC2, o agente do CloudWatch exige que a instância esteja executando a versão 2.2.93.0 ou posterior do agente do SSM. Antes de instalar o atendente do CloudWatch, atualize ou instale o SSM Agent na instância, caso ainda não tenha feito isso. Para obter informações sobre como instalar ou atualizar o SSM Agent em uma instância que execute o Linux, consulte Instalar e configurar o SSM Agent em instâncias do Linux no Manual do usuário do AWS Systems Manager . Para obter informações sobre como instalar ou atualizar o SSM Agent, consulte Trabalhar com o SSM Agent no Manual do usuário do AWS Systems Manager . Verifique os pré-requisitos do Systems Manager Antes de usar o Run Command do Systems Manager para instalar e configurar a integração com o atendente do CloudWatch, verifique se as instâncias atendem aos requisitos mínimos do Systems Manager. Para obter mais informações, consulte Pré-requisitos do Systems Manager no Manual do usuário do AWS Systems Manager . Verificar o acesso à Internet Suas instâncias do Amazon EC2 devem ser capazes de se conectar aos endpoints do CloudWatch. É possível fazer isso por meio de gateway da internet, gateway NAT ou endpoints da VPC de interface do CloudWatch. Para obter mais informações sobre como configurar o acesso à Internet, consulte Gateways da Internet no Manual do usuário da Amazon VPC . Os endpoints e portas para configurar em seu proxy são os seguintes: Se estiver usando o atendente para coletar métricas, você deverá incluir os endpoints do CloudWatch das regiões apropriadas na lista de permissões. Esses endpoints são listados no Amazon CloudWatch no Referência geral da Amazon Web Services . Se estiver usando o atendente para coletar logs, você deverá incluir os endpoints do CloudWatch Logs das regiões apropriadas na lista de permissões. Esses endpoints são listados no Amazon CloudWatch Logs no Referência geral da Amazon Web Services . Se estiver usando o Systems Manager para instalar o atendente ou o Parameter Store para armazenar o arquivo de configuração, você deverá incluir os endpoints do Systems Manager das regiões apropriadas na lista de permissões. Esses endpoints são listados no AWS Systems Manager no Referência geral da Amazon Web Services . Baixar o pacote do agente do CloudWatch para sua primeira instância Use as seguintes etapas para baixar o pacote do atendente do CloudWatch usando o Systems Manager. Para baixar o atendente do CloudWatch usando o Systems Manager Abra o console do Systems Manager em https://console.aws.amazon.com/systems-manager/ . No painel de navegação, selecione Executar comando . - ou - Se a página inicial do AWS Systems Manager for exibida, role para baixo e escolha Explore Run Command . Selecione Run command . Na lista Documento do comando , escolha AWS-ConfigureAWSPackage . Na área Targets (Destinos), selecione a instância na qual o atendente do CloudWatch será instalado. Se você não visualizar uma instância específica, ela talvez não esteja configurada como uma instância gerenciada para uso com o Systems Manager. Para obter mais informações, consulte Configurar o AWS Systems Manager para ambientes híbridos no Manual do usuário do AWS Systems Manager . Na lista Ação , escolha Instalar . No campo Name (Nome) , digite AmazonCloudWatchAgent . Deixe a Version (Versão) definida como latest (mais recente) para instalar a versão mais recente do atendente. Escolha Executar . Opcionalmente, nas áreas Targets and outputs (Destinos e saídas), selecione o botão ao lado do nome da instância e escolha View output (Visualizar saída). O Systems Manager deve exibir que o atendente foi instalado corretamente. Criar e modificar o arquivo de configuração do atendente Depois de baixar o atendente do CloudWatch, você deverá criar o arquivo de configuração antes de iniciar o atendente em qualquer servidor. Se você salvar o arquivo de configuração do atendente no Systems Manager Parameter Store, use uma instância do EC2 para salvar no Parameter Store. Além disso, é necessário primeiro anexar a função do IAM CloudWatchAgentAdminRole a essa instância. Para obter mais informações sobre como anexar perfis, consulte Anexar um perfil do IAM a uma instância no Guia do usuário do Amazon EC2 . Para obter mais informações sobre como criar o arquivo de configuração do atendente do CloudWatch, consulte Criar o arquivo de configuração do atendente do CloudWatch . Instalar e iniciar o agente do CloudWatch em instâncias adicionais do EC2 usando sua configuração de agente Depois que você tiver uma configuração do atendente do CloudWatch salva no Parameter Store, poderá usá-la quando instalar o atendente em outros servidores. Para cada um desses servidores, siga as etapas listadas anteriormente nesta seção para verificar os pré-requisitos do Systems Manager, a versão do agente do SSM Agent e o acesso à Internet. Em seguida, acompanhe as instruções a seguir para instalar o agente do CloudWatch nas instâncias adicionais, usando o arquivo de configuração de agente do CloudWatch que você criou. Etapa 1: baixar e instalar o agente do CloudWatch Para permitir o envio de dados do CloudWatch para uma região diferente, certifique-se de que o perfil do IAM que está vinculado a esta instância tenha permissões para gravar os dados do CloudWatch nessa região. Abaixo, há um exemplo de uso do comando aws configure para criar um perfil nomeado para o atendente do CloudWatch. Esse exemplo pressupõe que você esteja usando o nome de perfil padrão do AmazonCloudWatchAgent . Para criar o perfil AmazonCloudWatchAgent para o atendente do CloudWatch Em servidores Linux, digite o comando a seguir e siga os avisos: sudo aws configure --profile AmazonCloudWatchAgent No Windows Server, abra o PowerShell como um administrador, insira o comando apresentado a seguir e siga os prompts fornecidos. aws configure --profile AmazonCloudWatchAgent Instalação do agente do CloudWatch em instâncias adicionais do EC2 usando sua configuração de agente Depois que você tiver uma configuração do atendente do CloudWatch salva no Parameter Store, poderá usá-la quando instalar o atendente em outros servidores. Para cada um desses servidores, siga as etapas listadas anteriormente nesta seção para verificar os pré-requisitos do Systems Manager, a versão do agente do SSM Agent e o acesso à Internet. Em seguida, acompanhe as instruções a seguir para instalar o agente do CloudWatch nas instâncias adicionais, usando o arquivo de configuração de agente do CloudWatch que você criou. Etapa 1: baixar e instalar o agente do CloudWatch É necessário instalar o atendente em cada servidor no qual você executará o atendente. O agente do CloudWatch está disponível como um pacote no Amazon Linux 2023 e Amazon Linux 2. Caso esteja usando esse sistema operacional, você pode usar o Systems Manager para instalar o pacote seguindo as etapas abaixo. nota Também é necessário garantir que a função do IAM anexada à instância tenha o atributo CloudWatchAgentServerPolicy anexado. Para mais informações, consulte Pré-requisitos . Usar o Systems Manager para instalar o pacote de agente do CloudWatch Abra o console do Systems Manager em https://console.aws.amazon.com/systems-manager/ . No painel de navegação, selecione Executar comando . - ou - Se a página inicial do AWS Systems Manager for exibida, role para baixo e escolha Explore Run Command . Selecione Run command . Na lista Documento de comando , escolha AWS-RunShellScript . Em seguida, cole o seguinte nos Parâmetros de comando . sudo yum install amazon-cloudwatch-agent Escolha Executar Em todos os sistemas operacionais compatíveis, é possível baixar o pacote do atendente do CloudWatch usando o Systems Manager Run Command ou um link para download do Amazon S3. nota Quando você instala ou atualiza o atendente do CloudWatch, somente a opção Uninstall and reinstall (Desinstalar e reinstalar) é compatível. Não é possível usar a opção In-place update (Atualizações no local). O Systems Manager Run Command permite gerenciar a configuração de suas instâncias. Você especifica um documento do Systems Manager, especifica parâmetros e executa o comando em uma ou mais instâncias. O SSM Agent na instância processa o comando e configura a instância conforme especificado. Para baixar o atendente do CloudWatch usando o Run Command Abra o console do Systems Manager em https://console.aws.amazon.com/systems-manager/ . No painel de navegação, selecione Executar comando . - ou - Se a página inicial do AWS Systems Manager for exibida, role para baixo e escolha Explore Run Command . Selecione Run command . Na lista Documento do comando , escolha AWS-ConfigureAWSPackage . Na área Targets (Destinos), selecione a instância na qual o atendente do CloudWatch será instalado. Se você não visualizar uma instância específica, ela pode não estar configurada para o Run Command. Para obter mais informações, consulte Configurar o AWS Systems Manager para ambientes híbridos no Manual do usuário do AWS Systems Manager . Na lista Ação , escolha Instalar . Na caixa Name (Nome) , digite AmazonCloudWatchAgent . Deixe a Version (Versão) definida como latest (mais recente) para instalar a versão mais recente do atendente. Escolha Executar . Opcionalmente, nas áreas Targets and outputs (Destinos e saídas), selecione o botão ao lado do nome da instância e escolha View output (Visualizar saída). O Systems Manager deve exibir que o atendente foi instalado corretamente. Etapa 2: iniciar o agente do CloudWatch usando seu arquivo de configuração do agente Siga estas etapas para iniciar o atendente usando o Systems Manager Run Command. Para obter informações sobre como configurar o agente em um sistema que tenha o Linux com segurança aprimorada (SELinux) habilitado, consulte Configure o agente do CloudWatch com o Linux com segurança aprimorada (SELinux) . Para iniciar o atendente do CloudWatch usando o Run Command Abra o console do Systems Manager em https://console.aws.amazon.com/systems-manager/ . No painel de navegação, selecione Executar comando . - ou - Se a página inicial do AWS Systems Manager for exibida, role para baixo e escolha Explore Run Command . Selecione Run command . Na lista Documento do comando , escolha AmazonCloudWatch-ManageAgent . Na área Targets (Destinos), escolha a instância onde você instalou o atendente do CloudWatch. Na lista Ação , escolha configurar . Na lista Origem de configuração opcional , escolha ssm . Na caixa Local de configuração opcional , insira o nome do arquivo de configuração do agente que você criou e salvou no Systems Manager Parameter Store, conforme explicado em Criar o arquivo de configuração do atendente do CloudWatch . Na lista Reinicialização opcional , escolha sim para iniciar o atendente após ter concluído essas etapas. Escolha Executar . Opcionalmente, nas áreas Targets and outputs (Destinos e saídas), selecione o botão ao lado do nome da instância e escolha View output (Visualizar saída). O Systems Manager deve exibir que o atendente foi iniciado corretamente. (Opcional) Modificar a configuração comum e o perfil nomeado para o atendente do CloudWatch O atendente do CloudWatch inclui um arquivo de configuração chamado common-config.toml . Opcionalmente, é possível usar esse arquivo para especificar as informações de proxy e região. Em um servidor que executa o Linux, esse arquivo encontra-se no diretório /opt/aws/amazon-cloudwatch-agent/etc . Em um servidor que executa o Windows Server, esse arquivo encontra-se no diretório C:\ProgramData\Amazon\AmazonCloudWatchAgent . O common-config.toml padrão é conforme segue: # This common-config is used to configure items used for both ssm and cloudwatch access ## Configuration for shared credential. ## Default credential strategy will be used if it is absent here: ## Instance role is used for EC2 case by default. ## AmazonCloudWatchAgent profile is used for onPremise case by default. # [credentials] # shared_credential_profile = " { profile_name}" # shared_credential_file= " { file_name}" ## Configuration for proxy. ## System-wide environment-variable will be read if it is absent here. ## i.e. HTTP_PROXY/http_proxy; HTTPS_PROXY/https_proxy; NO_PROXY/no_proxy ## Note: system-wide environment-variable is not accessible when using ssm run-command. ## Absent in both here and environment-variable means no proxy will be used. # [proxy] # http_proxy = " { http_url}" # https_proxy = " { https_url}" # no_proxy = " { domain}" Todas as linhas são comentadas inicialmente. Para definir o perfil de credencial ou as configurações de proxy, remova o # da linha e especifique um valor. É possível editar esse arquivo manualmente ou usando o Run Command RunShellScript no Systems Manager: shared_credential_profile : para servidores on-premises, essa linha especifica o perfil de credenciais do usuário do IAM a ser usado para enviar dados ao CloudWatch. Se você mantiver esta linha comentada, AmazonCloudWatchAgent será usado. Em uma instância do EC2, você poderá usar essa linha para que o atendente do CloudWatch envie dados dessa instância para o CloudWatch em outra região da AWS. Para fazer isso, especifique um perfil nomeado que inclua um campo region especificando o nome da região para a qual enviar. Se você especificar um shared_credential_profile , também deverá remover o símbolo # do início da linha [credentials] . shared_credential_file : para que o atendente procure credenciais em um arquivo localizado em um caminho diferente do padrão, especifique esse caminho completo e o nome do arquivo aqui. O caminho padrão é /root/.aws no Linux e C:\\Users\\Administrator\\.aws no Windows Server. O primeiro exemplo a seguir mostra a sintaxe de uma linha shared_credential_file válida para servidores Linux, e o segundo exemplo é válido para o Windows Server. No Windows Server, você deve fazer o escape dos caracteres \. shared_credential_file= "/usr/ username /credentials" shared_credential_file= "C:\\Documents and Settings\\ username \\.aws\\credentials" Se você especificar um shared_credential_file , também deverá remover o símbolo # do início da linha [credentials] . Configurações do proxy: se seus servidores usarem os proxies HTTP ou HTTPS para entrar em contato com os produtos da AWS, especifique esses proxies nos campos http_proxy e https_proxy . Se houver URLs que devem ser excluídas do proxy, as especifique no campo no_proxy , separadas por vírgulas. O Javascript está desativado ou não está disponível no seu navegador. Para usar a documentação da AWS, o Javascript deve estar ativado. Consulte as páginas de Ajuda do navegador para obter instruções. Convenções do documento Instalação manual no Amazon EC2 Instalar o agente do CloudWatch em servidores on-premises Essa página foi útil? - Sim Obrigado por nos informar que estamos fazendo um bom trabalho! Se tiver tempo, conte-nos sobre o que você gostou para que possamos melhorar ainda mais. Essa página foi útil? - Não Obrigado por nos informar que precisamos melhorar a página. Lamentamos ter decepcionado você. Se tiver tempo, conte-nos como podemos melhorar a documentação. | 2026-01-13T09:29:26 |
https://www.infoworld.com/cloud-computing/ | Cloud Computing | InfoWorld Topics Latest Newsletters Resources Buyer’s Guides About About Us Advertise Contact Us Editorial Ethics Policy Foundry Careers Newsletters Contribute to InfoWorld Reprints Policies Terms of Service Privacy Policy Cookie Policy Copyright Notice Member Preferences About AdChoices Your California Privacy Rights Our Network CIO Computerworld CSO Network World More News Features Blogs BrandPosts Events Videos Enterprise Buyer’s Guides Close Analytics Artificial Intelligence Generative AI Careers Cloud Computing Data Management Databases Emerging Technology Technology Industry Security Software Development Microsoft .NET Development Tools Devops Open Source Programming Languages Java JavaScript Python IT Leadership Enterprise Buyer’s Guides Back Close Back Close Popular Topics Artificial Intelligence Cloud Computing Data Management Software Development Search Topics Latest Newsletters Resources Buyer’s Guides About Policies Our Network More Back Topics Analytics Artificial Intelligence Generative AI Careers Cloud Computing Data Management Databases Emerging Technology Technology Industry Security Software Development Microsoft .NET Development Tools Devops Open Source Programming Languages Java JavaScript Python IT Leadership Enterprise Buyer’s Guides Back About About Us Advertise Contact Us Editorial Ethics Policy Foundry Careers Newsletters Contribute to InfoWorld Reprints Back Policies Terms of Service Privacy Policy Cookie Policy Copyright Notice Member Preferences About AdChoices Your California Privacy Rights Back Our Network CIO Computerworld CSO Network World Back More News Features Blogs BrandPosts Events Videos Enterprise Buyer’s Guides Home Cloud Computing Sponsored by KPMG Cloud Computing Cloud Computing | News, how-tos, features, reviews, and videos Explore related topics Cloud Architecture Cloud Management Cloud Storage Cloud-Native Hybrid Cloud IaaS Managed Cloud Services Multicloud PaaS Private Cloud SaaS Latest from today analysis Which development platforms and tools should you learn now? For software developers, choosing which technologies and skills to master next has never been more difficult. Experts offer their recommendations. By Isaac Sacolick Jan 13, 2026 8 mins Development Tools Devops Generative AI analysis Why hybrid cloud is the future of enterprise platforms By David Linthicum Jan 13, 2026 4 mins Artificial Intelligence Cloud Architecture Hybrid Cloud news Oracle unveils Java development plans for 2026 By Paul Krill Jan 12, 2026 3 mins Java Programming Languages Software Development news AI is causing developers to abandon Stack Overflow By Mikael Markander Jan 12, 2026 2 mins Artificial Intelligence Generative AI Software Development opinion Stack thinking: Why a single AI platform won’t cut it By Tom Popomaronis Jan 12, 2026 8 mins Artificial Intelligence Development Tools Software Development news Postman snaps up Fern to reduce developer friction around API documentation and SDKs By Anirban Ghoshal Jan 12, 2026 3 mins APIs Software Development opinion Why ‘boring’ VS Code keeps winning By Matt Asay Jan 12, 2026 7 mins Developer GitHub Visual Studio Code feature How to succeed with AI-powered, low-code and no-code development tools By Bob Violino Jan 12, 2026 9 mins Development Tools Generative AI No Code and Low Code news Visual Studio Code adds support for agent skills By Paul Krill Jan 9, 2026 3 mins Development Tools Integrated Development Environments Visual Studio Code Articles news analysis Snowflake: Latest news and insights Stay up-to-date on how Snowflake and its underlying architecture has changed how cloud developers, data managers and data scientists approach cloud data management and analytics By Dan Muse Jan 9, 2026 5 mins Cloud Architecture Cloud Computing Cloud Management news Snowflake to acquire Observe to boost observability in AIops The acquisition could position Snowflake as a control plane for production AI, giving CIOs visibility across data, models, and infrastructure without the pricing shock of traditional observability stacks, analysts say. By Anirban Ghoshal Jan 9, 2026 3 mins Artificial Intelligence Software Development feature Python starts 2026 with a bang The world’s most popular programming language kicks off the new year with a wicked-fast type checker, a C code generator, and a second chance for the tail-calling interpreter. By Serdar Yegulalp Jan 9, 2026 2 mins Programming Languages Python Software Development news Microsoft open-sources XAML Studio Forthcoming update of the rapid prototyping tool for WinUI developers, now available on GitHub, adds a new Fluent UI design, folder support, and a live properties panel. By Paul Krill Jan 8, 2026 1 min Development Tools Integrated Development Environments Visual Studio analysis What drives your cloud security strategy? As cloud breaches increase, organizations should prioritize skills and training over the latest tech to address the actual root problems. By David Linthicum Jan 6, 2026 5 mins Careers Cloud Security IT Skills and Training news Databricks says its Instructed Retriever offers better AI answers than RAG in the enterprise Databricks says Instructed Retriever outperforms RAG and could move AI pilots to production faster, but analysts warn it could expose data, governance, and budget gaps that CIOs can’t ignore. By Anirban Ghoshal Jan 8, 2026 5 mins Artificial Intelligence Generative AI opinion The hidden devops crisis that AI workloads are about to expose Devops teams that cling to component-level testing and basic monitoring will struggle to keep pace with the data demands of AI. By Joseph Morais Jan 8, 2026 6 mins Artificial Intelligence Devops Generative AI news AI-built Rue language pairs Rust memory safety with ease of use Developed using Anthropic’s Claude AI model, the new language is intended to provide memory safety without garbage collection while being easier to use than Rust and Zig. By Paul Krill Jan 7, 2026 2 mins Generative AI Programming Languages Rust news Microsoft acquires Osmos to ease data engineering bottlenecks in Fabric The acquisition could help enterprises push analytics and AI projects into production faster while acting as the missing autonomy layer that connects Fabric’s recent enhancements into a coherent system. By Anirban Ghoshal Jan 7, 2026 4 mins Analytics Artificial Intelligence Data Engineering opinion What the loom tells us about AI and coding Like the loom, AI may turn the job market upside down. And enable new technologies and jobs that we simply can’t predict. By Nick Hodges Jan 7, 2026 4 mins Developer Engineer Generative AI analysis Generative UI: The AI agent is the front end In a new model for user interfaces, agents paint the screen with interactive UI components on demand. Let’s take a look. By Matthew Tyson Jan 7, 2026 8 mins Development Tools Generative AI Libraries and Frameworks news AI won’t replace human devs for at least 5 years Progress towards full AI-driven coding automation continues, but in steps rather than leaps, giving organizations time to prepare, according to a new study. By Taryn Plumb Jan 7, 2026 7 mins Artificial Intelligence Developer Roles news Automated data poisoning proposed as a solution for AI theft threat For hackers, the stolen data would be useless, but authorized users would have a secret key that filters out the fake information. By Howard Solomon Jan 7, 2026 6 mins Artificial Intelligence Data Privacy Privacy Show more Show less View all Video on demand video How to generate C-like programs with Python You might be familiar with how Python and C can work together, by way of projects like Cython. The new PythoC project has a unique twist on working with both languages: it lets you write type-decorated Python that can generate entire standalone C programs, not just importable Python libraries written in C. This video shows a few basic PythoC functions, from generating a whole program to using some of PythoC’s typing features to provide better memory management than C alone could. Dec 16, 2025 5 mins Python Zed Editor Review: The Rust-Powered IDE That Might Replace VS Code Dec 3, 2025 5 mins Python Python vs. Kotlin Nov 13, 2025 5 mins Python Hands-on with the new sampling profiler in Python 3.15 Nov 6, 2025 6 mins Python See all videos Explore a topic Analytics Artificial Intelligence Careers Data Management Databases Development Tools Devops Emerging Technology Generative AI Java JavaScript Microsoft .NET Open Source Programming Languages View all topics All topics Close Browse all topics and categories below. Analytics Artificial Intelligence Careers Data Management Databases Development Tools Devops Emerging Technology Generative AI Java JavaScript Microsoft .NET Open Source Programming Languages Python Security Software Development Technology Industry Show me more Latest Articles Videos news Ruby 4.0.0 introduces ZJIT compiler, Ruby Box isolation By Paul Krill Jan 6, 2026 3 mins Programming Languages Ruby Software Development news Open WebUI bug turns the ‘free model’ into an enterprise backdoor By Shweta Sharma Jan 6, 2026 3 mins Artificial Intelligence Security Vulnerabilities interview Generative AI and the future of databases By Martin Heller Jan 6, 2026 14 mins Artificial Intelligence Databases Generative AI video How to make local packages universal across Python venvs Nov 4, 2025 4 mins Python video X-ray vision for your async activity in Python 3.14 Oct 21, 2025 4 mins Python video Why it's so hard to redistribute standalone Python apps Oct 17, 2025 5 mins Python About About Us Advertise Contact Us Editorial Ethics Policy Foundry Careers Reprints Newsletters BrandPosts Policies Terms of Service Privacy Policy Cookie Policy Copyright Notice Member Preferences About AdChoices Your California Privacy Rights Privacy Settings Our Network CIO Computerworld CSO Network World Facebook X YouTube Google News LinkedIn © 2026 FoundryCo, Inc. All Rights Reserved. | 2026-01-13T09:29:26 |
https://telegram.org/dl?tme=d9d11595628328a263_8609923092293485102 | Telegram Applications English Bahasa Indonesia Bahasa Melayu Deutsch Español Français Italiano Nederlands O‘zbek Polski Português (Brasil) Türkçe Беларуская Русский Українська Қазақша العربية فارسی 한국어 Twitter Home FAQ Apps API Moderation Telegram Applications Telegram apps are open source and support reproducible builds . Anyone can independently verify that Telegram apps you download from App Store or Google Play were built using the exact same code that we publish. Mobile apps Telegram for Android Telegram for iPhone and iPad Desktop apps Telegram for Windows/Mac/Linux Telegram for macOS Web apps Telegram WebK Telegram WebA Telegram Database Library (TDLib) TDLib – a cross-platform client designed to facilitate creating custom apps on the Telegram platform. Telegram X for Android – a slick experimental Telegram client based on TDLib. Unofficial apps Unigram, a client optimized for Windows (based on TDLib ) Telegram CLI for Linux MadelineProto Source code This code allows security researchers to fully evaluate our end-to-end encryption implementation . It is also possible to independently verify that Telegram apps available on Google Play and App Store are built using the same code that we publish on GitHub. Telegram Database Library Cross-platform library for building custom Telegram apps, see TDLib for details. Licensed under Boost 1.0 . GitHub » Telegram for Android Official Android App, see Google Play Market page for full description. Licensed under GNU GPL v. 2 or later . GitHub » Download APK File » Telegram for iOS Licensed under GNU GPL v. 2 or later . GitHub » Telegram for macOS Native macOS client. Licensed under GNU GPL v. 2 . GitHub » Telegram for Web browsers Telegram Web, Version K . Mac, Windows, Linux, Mobile. Licensed under GNU GPL v. 3 . GitHub » Telegram Web, Version A . Mac, Windows, Linux, Mobile. Licensed under GNU GPL v. 3 . GitHub » Legacy JavaScript client . Mac, Windows, Linux. Licensed under GNU GPL v. 3 . GitHub » Telegram React JavaScript client for browsers. Mac, Windows, Linux. Licensed under GNU GPL v. 3 . GitHub » Telegram Desktop Qt-based desktop client. Mac, Windows, Linux. Licensed under GNU GPL v. 3 . GitHub » Telegram for WP Licensed under GNU GPL v. 2 or later . GitHub » Telegram X for Android Alternative Telegram client for Android based on TDLib. Licensed under GPL v.3.0 GitHub » Unofficial apps Telegram CLI (Unofficial) Linux Command-line interface for Telegram. Licensed under GNU GPL v. 2 . GitHub » Unigram (Unofficial) A Telegram client optimized for Windows. Licensed under GNU GPL v. 3 or later . GitHub » MadelineProto (Unofficial) A PHP MTProto Telegram client. Licensed under GNU AGPL v. 3 . GitHub » Bug Bounty Program Telegram welcomes developers and the security research community to audit its services, code and protocol seeking vulnerabilities or security-related issues. Learn more about our Bug Bounty Program here . Telegram Telegram is a cloud-based mobile and desktop messaging app with a focus on security and speed. About FAQ Privacy Press Mobile Apps iPhone/iPad Android Mobile Web Desktop Apps PC/Mac/Linux macOS Web-browser Platform API Translations Instant View About Blog Press Moderation | 2026-01-13T09:29:26 |
https://www.linkedin.com/products/progress-software-progress-flowmon/?trk=products_details_guest_similar_products_section_similar_products_section_product_link_result-card_full-click | Progress Flowmon | LinkedIn Skip to main content LinkedIn Progress Software in Asan Expand search This button displays the currently selected search type. When expanded it provides a list of search options that will switch the search inputs to match the current selection. Jobs People Learning Clear text Clear text Clear text Clear text Clear text Join now Sign in Progress Flowmon Network Monitoring Software by Progress Software See who's skilled in this Add as skill Learn more Report this product About Flowmon Networks empowers businesses to manage and secure their computer networks confidently. Through our high performance network monitoring technology and lean-forward behavior analytics, IT pros worldwide benefit from absolute network traffic visibility to enhance network & application performance and deal with modern cyber threats. Driven by a passion for technology, we are leading the way of NetFlow/IPFIX network monitoring that is high performing, scalable and easy to use. The world’s largest businesses, internet service providers, government entities or even small and midsize companies rely on our solutions to take control over their networks, keep order and overcome uncertainty. With our solution recognized by Gartner, we are one of the fastest growing companies in the industry. This product is intended for Technical Engineer Sales Consultant Solutions Developer System Specialist Security Professional Media Products media viewer No more previous content Make your network transparent and secured Flowmon allows you to pinpoint the root cause of network problems, gives you a complete network visibility and spots security threats with ease thanks to its AI-engine and unmatched flexibility. Context-aware investigation Functional versatility Visualize Network Traffic, Identify Issues & Prevent Exploits Flowmon named a value leader for NPM No more next content Featured customers of Progress Flowmon Aspire Technology Solutions Information Technology & Services 9,780 followers SEGA Computer Games 60,215 followers Equinix Internet Publishing 549,152 followers Eurona Telecommunications 8,223 followers Coop Retail 173,677 followers Cigna Healthcare Hospitals and Health Care 802,755 followers GÉANT Computer Networking Products 15,480 followers Tietoevry IT Services and IT Consulting 481,586 followers Show more Show less Similar products NMS NMS Network Monitoring Software Network Operations Center (NOC) Network Operations Center (NOC) Network Monitoring Software Arbor Sightline Arbor Sightline Network Monitoring Software TEMS™ Suite TEMS™ Suite Network Monitoring Software ASM ASM Network Monitoring Software ONES (Open Networking Enterprise Suite) ONES (Open Networking Enterprise Suite) Network Monitoring Software Sign in to see more Show more Show less Progress Software products Kendo UI Kendo UI Component Content Management Systems (CCMS) Progress Chef Progress Chef DevOps Software Progress DataDirect Progress DataDirect Cloud Integration Software Progress Kemp LoadMaster Progress Kemp LoadMaster Load Balancing Software Progress Kinvey Progress Kinvey Low-Code Development Platforms Progress MarkLogic Progress MarkLogic Software Development Kits (SDK) Progress MOVEit Progress MOVEit Managed File Transfer (MFT) Software Progress NativeChat Progress NativeChat Chatbot Software Progress OpenEdge Progress OpenEdge Integrated Development Environments (IDE) Show more Show less LinkedIn © 2026 About Accessibility User Agreement Privacy Policy Cookie Policy Copyright Policy Brand Policy Guest Controls Community Guidelines English (English) Language | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/it_it/AmazonCloudWatch/latest/monitoring/CloudWatch-Application-Signals-Enable-KubernetesMain.html | Abilitazione delle applicazioni su Kubernetes - Amazon CloudWatch Abilitazione delle applicazioni su Kubernetes - Amazon CloudWatch Documentazione Amazon CloudWatch Guida per l’utente Passaggio 1: abilitazione di Application Signals nell'account Passaggio 2: installazione dell'operatore dell'agente CloudWatch nel cluster Passaggio 3: impostazione delle credenziali AWS per i cluster Kubernetes Passaggio 4: aggiunta di annotazioni (Facoltativo) Passaggio 5: monitoraggio dell'integrità delle applicazioni Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà. Abilitazione delle applicazioni su Kubernetes Abilita CloudWatch Application Signals su Kubernetes utilizzando la procedura di configurazione personalizzata descritta in questa sezione. Per le applicazioni in esecuzione su Kubernetes, puoi installare e configurare in autonomia l'agente CloudWatch e AWS Distro per OpenTelemetry. Su queste architetture abilitate con una configurazione personalizzata di Application Signals, Application Signals non rileva automaticamente i nomi dei tuoi servizi o dei cluster o host su cui vengono eseguiti. Devi specificare questi nomi durante la configurazione personalizzata e i nomi specificati sono quelli visualizzati nei pannelli di controllo di Application Signals. Requisiti Devi disporre dell'autorizzazione di amministratore sul cluster Kubernetes in cui stai abilitando Application Signals. Nell'ambiente in cui è in esecuzione il cluster Kubernetes deve essere installata la AWS CLI. Per informazioni sull'installazione della AWS CLI, consulta Install or update the latest version of the AWS CLI . Sul terminale locale devono essere installati kubectl e helm. Per ulteriori informazioni, consulta la documentazione di kubectl e Helm . Passaggio 1: abilitazione di Application Signals nell'account Prima devi abilitare Application Signals nel tuo account. Se non lo hai ancora fatto, consulta Abilitazione di Application Signals in un account . Passaggio 2: installazione dell'operatore dell'agente CloudWatch nel cluster L'installazione dell'operatore dell'agente CloudWatch installa l'operatore, l'agente CloudWatch e altra instrumentazione automatica nel cluster. A questo scopo, immetti il comando seguente. Sostituisci $REGION con la tua Regione AWS. Sostituisci $YOUR_CLUSTER_NAME con il nome che desideri venga visualizzato per il cluster nei pannelli di controllo di Application Signals. helm repo add aws-observability https://aws-observability.github.io/helm-charts helm install amazon-cloudwatch-operator aws-observability/amazon-cloudwatch-observability \ --namespace amazon-cloudwatch --create-namespace \ --set region= $REGION \ --set clusterName= $YOUR_CLUSTER_NAME Per ulteriori informazioni, consulta amazon-cloudwatch-observability su GitHub. Passaggio 3: impostazione delle credenziali AWS per i cluster Kubernetes Importante Se il tuo cluster Kubernetes è ospitato su Amazon EC2, puoi ignorare questa sezione e passare a Passaggio 4: aggiunta di annotazioni . Se il tuo cluster Kubernetes è ospitato on-premises, devi utilizzare le istruzioni in questa sezione per aggiungere le credenziali AWS al tuo ambiente Kubernetes. Per impostare le autorizzazioni per un cluster Kubernetes on-premises Crea l'utente IAM da utilizzare per fornire le autorizzazioni al tuo host on-premises: Aprire la console IAM all'indirizzo https://console.aws.amazon.com/iam/ . Scegli Utenti , quindi seleziona Crea utente . In Dettagli utente , per Nome utente , inserisci un nome per il nuovo utente IAM. Questo è il nome di accesso per AWS che verrà utilizzato per autenticare il tuo host. quindi scegliere Next . Nella pagina Imposta autorizzazioni , nel campo Opzioni delle autorizzazioni , scegli Collega direttamente le policy . Dall'elenco Policy di autorizzazione , seleziona la policy CloudWatchAgentServerPolicy da aggiungere all'utente. Quindi scegli Successivo . Nella pagina Rivedi e crea , verifica la correttezza del nome utente e che la policy CloudWatchAgentServerPolicy sia inclusa nel Riepilogo delle autorizzazioni . Scegli Crea utente . Crea e recupera la chiave di accesso AWS e la chiave segreta: Nel pannello di navigazione della console IAM, scegli Utenti e seleziona il nome utente dell'utente creato nel passaggio precedente. Nella pagina dell'utente, scegli la scheda Credenziali di sicurezza . Quindi, nella sezione Chiavi di accesso , scegli Crea chiave di accesso . Per Crea chiave di accesso (passaggio 1) , scegli Interfaccia a riga di comando (CLI) . Per Crea chiave di accesso (passaggio 2) , inserisci facoltativamente un tag e scegli Avanti . Per Crea chiave di accesso (passaggio 3) , seleziona Scarica il file .csv per salvare un file .csv con la chiave di accesso e la chiave di accesso segreta del tuo utente IAM. Queste informazioni serviranno per i passaggi successivi. Seleziona Fatto . Configura le credenziali AWS nell'host on-premises immettendo il seguente comando. Sostituisci ACCESS_KEY_ID e SECRET_ACCESS_ID con la chiave di accesso e la chiave di accesso segreta appena generate dal file .csv scaricato nel passaggio precedente. Per impostazione predefinita, il file delle credenziali viene salvato in /home/ user /.aws/credentials. $ aws configure --profile AmazonCloudWatchAgent AWS Access Key ID [None]: ACCESS_KEY_ID AWS Secret Access Key [None]: SECRET_ACCESS_ID Default region name [None]: MY_REGION Default output format [None]: json Modifica la risorsa personalizzata che l'agente CloudWatch ha installato utilizzando il grafico Helm per aggiungere il segreto delle credenziali AWS appena creato. kubectl edit amazoncloudwatchagent cloudwatch-agent -n amazon-cloudwatch Mentre l'editor di file è aperto, monta le credenziali AWS nel container dell'agente CloudWatch aggiungendo la seguente configurazione all'inizio dell'implementazione. Sostituisci il percorso /home/ user /.aws/credentials con la posizione del file delle credenziali AWS locale. apiVersion: cloudwatch.aws.amazon.com/v1alpha1 kind: AmazonCloudWatchAgent metadata: name: cloudwatch-agent namespace: amazon-cloudwatch spec: volumeMounts: - mountPath: /rootfs volumeMounts: - name: aws-credentials mountPath: /root/.aws readOnly: true volumes: - hostPath: path: /home/ user /.aws/credentials name: aws-credentials --- Passaggio 4: aggiunta di annotazioni Nota Se stai abilitando Application Signals per un'applicazione Node.js con ESM, salta questa sezione e vai invece a Configurazione di un'applicazione Node.js con il formato del modulo ESM . Il passaggio successivo consiste nell'instrumentare l'applicazione per CloudWatch Application Signals aggiungendo un' annotazione specifica per il linguaggio al carico di lavoro o al namespace Kubernetes. L'aggiunta di questa annotazione instrumenta automaticamente l'applicazione per inviare metriche, tracce e log ad Application Signals. Per aggiungere le annotazioni per Application Signals Sono disponibili due opzioni per l'annotazione: L' annotazione del carico di lavoro instrumenta automaticamente un singolo carico di lavoro nel cluster. L' annotazione del namespace instrumenta automaticamente tutti i carichi di lavoro implementati nel namespace selezionato. Scegli una di queste opzioni e segui i passaggi appropriati. Per annotare un singolo carico di lavoro, inserisci uno dei comandi seguenti. Sostituisci $WORKLOAD_TYPE e $WORKLOAD_NAME con i valori del tuo carico di lavoro. Per i carichi di lavoro Java: kubectl patch $WORKLOAD_TYPE $WORKLOAD_NAME -p ' { "spec": { "template": { "metadata": { "annotations": { "instrumentation.opentelemetry.io/inject-java": "true"}}}}}' Per i carichi di lavoro Python: kubectl patch $WORKLOAD_TYPE $WORKLOAD_NAME -p ' { "spec": { "template": { "metadata": { "annotations": { "instrumentation.opentelemetry.io/inject-python": "true"}}}}}' Per le applicazioni Python, sono necessarie configurazioni aggiuntive. Per ulteriori informazioni, consulta L'applicazione Python non si avvia dopo l'abilitazione di Application Signals . Per i carichi di lavoro .NET: kubectl patch $WORKLOAD_TYPE $WORKLOAD_NAME -p ' { "spec": { "template": { "metadata": { "annotations": { "instrumentation.opentelemetry.io/inject-dotnet": "true"}}}}}' Nota Per abilitare Application Signals per un carico di lavoro .NET su immagini basate su Alpine Linux ( linux-musl-x64 ), aggiungi la seguente annotazione ulteriore. instrumentation.opentelemetry.io/otel-dotnet-auto-runtime: "linux-musl-x64" Per i carichi di lavoro Node.js: kubectl patch $WORKLOAD_TYPE $WORKLOAD_NAME -p ' { "spec": { "template": { "metadata": { "annotations": { "instrumentation.opentelemetry.io/inject-nodejs": "true"}}}}}' Per annotare tutti i carichi di lavoro in un namespace, immetti uno dei comandi seguenti. Sostituisci $NAMESPACE con il nome del tuo namespace. Se il namespace include carichi di lavoro Java, Python e .NET, aggiungi tutte le annotazioni al namespace. Per i carichi di lavoro Java nel namespace: kubectl annotate ns $NAMESPACE instrumentation.opentelemetry.io/inject-java=true Per i carichi di lavoro Python nel namespace: kubectl annotate ns $NAMESPACE instrumentation.opentelemetry.io/inject-python=true Per le applicazioni Python, sono necessarie configurazioni aggiuntive. Per ulteriori informazioni, consulta L'applicazione Python non si avvia dopo l'abilitazione di Application Signals . Per i carichi di lavoro .NET nel namespace: kubectl annotate ns $NAMESPACE instrumentation.opentelemetry.io/inject-dotnet=true Per i carichi di lavoro Node.js nel namespace: kubectl annotate ns $NAMESPACE instrumentation.opentelemetry.io/inject-nodejs=true Dopo aver aggiunto le annotazioni, riavvia tutti i pod nel namespace immettendo il seguente comando: kubectl rollout restart Una volta completati i passaggi precedenti, nella console CloudWatch, scegli Application Signals , Servizi . Si apriranno i pannelli di controllo nei quali è possibile visualizzare i dati raccolti da Application Signals. Potrebbero essere necessari alcuni minuti prima che i dati vengano visualizzati. Per ulteriori informazioni sulla visualizzazione Servizi , consulta Monitoraggio dell'integrità operativa delle applicazioni con Application Signals . Configurazione di un'applicazione Node.js con il formato del modulo ESM Forniamo un supporto limitato per le applicazioni Node.js con il formato del modulo ESM. Per informazioni dettagliate, consultare Limitazioni note di Node.js con ESM . Per il formato del modulo ESM, l'abilitazione di Application Signals tramite l'annotazione del file manifesto non funziona. Salta la procedura precedente ed esegui invece quanto segue: Per abilitare Application Signals per un'applicazione Node.js con ESM Installa le dipendenze pertinenti nell'applicazione Node.js per l'instrumentazione automatica: npm install @aws/aws-distro-opentelemetry-node-autoinstrumentation npm install @opentelemetry/instrumentation@0.54.0 Aggiungi le seguenti variabili di ambiente al Dockerfile per la tua applicazione e crea l'immagine. ... ENV OTEL_AWS_APPLICATION_SIGNALS_ENABLED=true ENV OTEL_TRACES_SAMPLER_ARG='endpoint=http://cloudwatch-agent.amazon-cloudwatch:2000' ENV OTEL_TRACES_SAMPLER='xray' ENV OTEL_EXPORTER_OTLP_PROTOCOL='http/protobuf' ENV OTEL_EXPORTER_OTLP_TRACES_ENDPOINT='http://cloudwatch-agent.amazon-cloudwatch:4316/v1/traces' ENV OTEL_AWS_APPLICATION_SIGNALS_EXPORTER_ENDPOINT='http://cloudwatch-agent.amazon-cloudwatch:4316/v1/metrics' ENV OTEL_METRICS_EXPORTER='none' ENV OTEL_LOGS_EXPORTER='none' ENV NODE_OPTIONS='--import @aws/aws-distro-opentelemetry-node-autoinstrumentation/register --experimental-loader=@opentelemetry/instrumentation/hook.mjs' ENV OTEL_SERVICE_NAME='YOUR_SERVICE_NAME' #replace with a proper service name ENV OTEL_PROPAGATORS='tracecontext,baggage,b3,xray' ... # command to start the application # for example # CMD ["node", "index.mjs"] Aggiungi le variabili di ambiente OTEL_RESOURCE_ATTRIBUTES_POD_NAME , OTEL_RESOURCE_ATTRIBUTES_NODE_NAME , OTEL_RESOURCE_ATTRIBUTES_DEPLOYMENT_NAME , POD_NAMESPACE e OTEL_RESOURCE_ATTRIBUTES al file yaml di implementazione per l'applicazione. Per esempio: apiVersion: apps/v1 kind: Deployment metadata: name: nodejs-app labels: app: nodejs-app spec: replicas: 2 selector: matchLabels: app: nodejs-app template: metadata: labels: app: nodejs-app # annotations: # make sure this annotation doesn't exit # instrumentation.opentelemetry.io/inject-nodejs: 'true' spec: containers: - name: nodejs-app image: your-nodejs-application-image #replace it with a proper image uri imagePullPolicy: Always ports: - containerPort: 8000 env: - name: OTEL_RESOURCE_ATTRIBUTES_POD_NAME valueFrom: fieldRef: fieldPath: metadata.name - name: OTEL_RESOURCE_ATTRIBUTES_NODE_NAME valueFrom: fieldRef: fieldPath: spec.nodeName - name: OTEL_RESOURCE_ATTRIBUTES_DEPLOYMENT_NAME valueFrom: fieldRef: fieldPath: metadata.labels['app'] # Assuming 'app' label is set to the deployment name - name: POD_NAMESPACE valueFrom: fieldRef: fieldPath: metadata.namespace - name: OTEL_RESOURCE_ATTRIBUTES value: "k8s.deployment.name=$(OTEL_RESOURCE_ATTRIBUTES_DEPLOYMENT_NAME),k8s.namespace.name=$(POD_NAMESPACE),k8s.node.name=$(OTEL_RESOURCE_ATTRIBUTES_NODE_NAME),k8s.pod.name=$(OTEL_RESOURCE_ATTRIBUTES_POD_NAME)" Implementa l'applicazione Node.js nel cluster Kubernetes. (Facoltativo) Passaggio 5: monitoraggio dell'integrità delle applicazioni Dopo aver abilitato le applicazioni su Kubernetes, è possibile monitorarne l'integrità. Per ulteriori informazioni, consulta Monitoraggio dell'integrità operativa delle applicazioni con Application Signals . JavaScript è disabilitato o non è disponibile nel tuo browser. Per usare la documentazione AWS, JavaScript deve essere abilitato. Consulta le pagine della guida del browser per le istruzioni. Convenzioni dei documenti Abilita Application Signals su Amazon ECS utilizzando AWS CDK Abilitazione delle applicazioni su Lambda Questa pagina ti è stata utile? - Sì Grazie per averci comunicato che stiamo facendo un buon lavoro! Se hai un momento, ti invitiamo a dirci che cosa abbiamo fatto che ti è piaciuto così possiamo offrirti altri contenuti simili. Questa pagina ti è stata utile? - No Grazie per averci comunicato che questa pagina ha bisogno di essere modificata. Siamo spiacenti di non aver soddisfatto le tue esigenze. Se hai un momento, ti invitiamo a dirci come possiamo migliorare la documentazione. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/servicecatalog/latest/arguide/intro-app-registry.html | What is AppRegistry? - AWS Service Catalog AppRegistry What is AppRegistry? - AWS Service Catalog AppRegistry Documentation AWS Service Catalog Administrator Guide AWS service integrations Pricing What is AppRegistry? With AppRegistry, you create applications to store associated resources. You can create attribute groups that describe the context of your applications based on metadata you provide. You can create tags that assign metadata to applications and attribute groups and associate resources with applications. You can also share applications and attribute groups to accounts, organizations, and organizational units. The following video (06:57) shows how you can create application in AppRegistry. Note The console shown in the video might differ from the console available today. AWS service integrations The following AWS services integrate with AppRegistry: AWS Billing With Billing , you can use cost allocation tags to analyze cost trends for your applications and resources. Amazon CloudWatch With CloudWatch , you can use a feature called Application Insights to monitor application resources and detect issues with applications. AWS Management Console With the AWS Management Console , you can access and view your applications and associated resources. AWS Resource Access Manager (AWS RAM) With AWS RAM , you can share applications and attribute groups through AWS Organizations. AWS Resilience Hub With Resilience Hub , you can collect application resources to create a resiliency policy. AWS Resource Groups With Resource Groups , you can use tags to share applications and attribute groups , as well as organize application resources. AWS Service Catalog With Service Catalog , you can create provisioned products , which are CloudFormation stacks, that you can associate with applications. AWS Service Management Connector With Service Management Connector , you can view applications in a ServiceNow Configuration Management Database. AWS Systems Manager With Systems Manager , you can use a feature called Application Manager to detect and fix issues with resources in the context of their applications and clusters. AWS Well-Architected Tool With AWS WA Tool , you can extend AWS Well-Architected functionality, best practices, measurements, and learnings into your existing architecture governance processes, applications, and workflows. Pricing For information about pricing, see AWS Service Catalog pricing . Javascript is disabled or is unavailable in your browser. To use the Amazon Web Services Documentation, Javascript must be enabled. Please refer to your browser's Help pages for instructions. Document Conventions Key concepts Did this page help you? - Yes Thanks for letting us know we're doing a good job! If you've got a moment, please tell us what we did right so we can do more of it. Did this page help you? - No Thanks for letting us know this page needs work. We're sorry we let you down. If you've got a moment, please tell us how we can make the documentation better. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/what-is-network-monitor.html | Using Network Synthetic Monitor - Amazon CloudWatch Using Network Synthetic Monitor - Amazon CloudWatch Documentation Amazon CloudWatch User Guide Key features Terminology and components Requirements and limitations Using Network Synthetic Monitor Network Synthetic Monitor provides visibility into the performance of the network connecting your AWS hosted applications to your on-premises destinations, and allows you to identify the source of any network performance degradation within minutes. Network Synthetic Monitor is fully managed by AWS, and doesn't require separate agents on monitored resources. Use Network Synthetic Monitor to visualize packet loss and latency of your hybrid network connections, and set alerts and thresholds. Then, based on this information, you can take action to improve your end users’ experience. Network Synthetic Monitor is intended for network operators and application developers who want real-time insights into network performance. Network Synthetic Monitor key features Use Network Synthetic Monitor to benchmark your changing hybrid network environment with continuous real-time packet loss and latency metrics. When you connect by using AWS Direct Connect, Network Synthetic Monitor can help you to rapidly diagnose network degradation within the AWS network with the network health indicator (NHI), which Network Synthetic Monitor writes to your Amazon CloudWatch account. The NHI metric is a binary value, based on a probabilistic score about whether network degradation is within AWS. Network Synthetic Monitor provides a fully-managed agent approach to monitoring, so you don’t need to install agents either on VPCs or on-premises. To get started, you just need to specify a VPC subnet and an on-premises IP address. You can establish a private connection between your VPC and Network Synthetic Monitor resources by using AWS PrivateLink. For more information, see Using CloudWatch, CloudWatch Synthetics, and CloudWatch Network Monitoring with interface VPC endpoints . Network Synthetic Monitor publishes metrics to CloudWatch Metrics. You can create dashboards to view your metrics, and also create actionable thresholds and alarms on the metrics that are specific to your application. For more information, see How Network Synthetic Monitor works . Network Synthetic Monitor terminology and components Probes — A probe is the traffic that's sent from an AWS-hosted resource to an on-premises destination IP address. Network Synthetic Monitor metrics measured by the probe are written into your CloudWatch account for every probe that's configured in a monitor. Monitor — A monitor displays network performance and other health information for traffic that you have created Network Synthetic Monitor probes for. You add probes as part of creating a monitor, and then you can view network performance metrics information using the monitor. When you create a monitor for an application, you add an AWS hosted resource as the network source. Network Synthetic Monitor then creates a list of all possible probes between the AWS hosted resource and your destination IP addresses. You select the destinations that you want to monitor traffic for. AWS network source — An AWS network source is a monitor probe's originating AWS source, which is a subnet in one of your VPCs. Destination — A destination is the target in your on-premises network for the AWS network source. A destination is a combination of your on-premises IP addresses, network protocols, ports, and network packet size. IPv4 and IPv6 addresses are both supported. Network Synthetic Monitor requirements and limitations The following summarizes requirements and limitations for Network Synthetic Monitor. For specific quotas (or limits), see Network Synthetic Monitor . Monitor subnets must be owned by the same account as the monitor. Network Synthetic Monitor doesn't provide automatic network failover in the event of an AWS network issue. There's a charge for each probe that you create. For pricing details, see Pricing for Network Synthetic Monitor . Javascript is disabled or is unavailable in your browser. To use the Amazon Web Services Documentation, Javascript must be enabled. Please refer to your browser's Help pages for instructions. Document Conventions Service-linked role How Network Synthetic Monitor works Did this page help you? - Yes Thanks for letting us know we're doing a good job! If you've got a moment, please tell us what we did right so we can do more of it. Did this page help you? - No Thanks for letting us know this page needs work. We're sorry we let you down. If you've got a moment, please tell us how we can make the documentation better. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/it_it/AmazonCloudWatch/latest/monitoring/CloudWatch-Application-Signals-Enable-EKS-sample.html | (Facoltativo) Prova di Application Signals su un'app di esempio - Amazon CloudWatch (Facoltativo) Prova di Application Signals su un'app di esempio - Amazon CloudWatch Documentazione Amazon CloudWatch Guida per l’utente Fase 1: download degli script Fase 2: creazione ed esecuzione dell'applicazione di esempio Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà. (Facoltativo) Prova di Application Signals su un'app di esempio Per provare CloudWatch Application Signals su un'app di esempio prima di utilizzarla per instrumentare le tue applicazioni, segui le istruzioni in questa sezione. Queste istruzioni utilizzano script per aiutarti a creare un cluster Amazon EKS, installare un'applicazione di esempio e strumentare l'applicazione di esempio affinché funzioni con Application Signals. L'applicazione di esempio è un'applicazione Spring “Pet Clinic” composta da quattro microservizi. Questi servizi vengono eseguiti su Amazon EKS su Amazon EC2 e sfruttano gli script di abilitazione di Application Signals per abilitare il cluster con l'agente di instrumentazione automatica Java, Python o .NET. Requisiti Application Signals monitora solo le applicazioni Java, Python o .NET. È necessario avere installato la AWS CLI nell'istanza. Consigliamo AWS CLI versione 2, ma dovrebbe funzionare anche la versione 1. Per informazioni sull'installazione della AWS CLI, consulta Install or update the latest version of the AWS CLI . Gli script in questa sezione sono pensati per essere eseguiti in ambienti Linux e macOS. Per le istanze Windows, consigliamo di utilizzare un ambiente AWS Cloud9 per eseguire questi script. Per ulteriori informazioni su AWS Cloud9, consulta Che cos'è AWS Cloud9? . Installa una versione supportata di kubectl . Devi utilizzare la versione kubectl la cui differenza di versione secondaria è uno rispetto al piano di controllo del cluster Amazon EKS. Ad esempio, un client kubectl 1.26 deve funzionare con cluster Kubernetes 1.25, 1.26 e 1.27. Se disponi già di un cluster Amazon EKS, potrebbe essere necessario configurare le credenziali AWS per kubectl . Per ulteriori informazioni, consulta Creazione o aggiornamento di un file kubeconfig per un cluster Amazon EKS . Installa eksctl . eksctl utilizza la AWS CLI per interagire con AWS, il che significa che utilizza le stesse credenziali AWS della AWS CLI. Per ulteriori informazioni, consulta Installazione o aggiornamento di eksctl . Installa jq . jq è necessario per eseguire gli script di abilitazione di Application Signals. Per ulteriori informazioni, consulta Scarica jq . Fase 1: download degli script Per scaricare gli script per configurare CloudWatch Application Signals con un'app di esempio, puoi scaricare e decomprimere il file di progetto GitHub compresso su un'unità locale oppure puoi clonare il progetto GitHub. Per clonare il progetto, apri una finestra terminale e inserisci il seguente comando Git in una determinata directory di lavoro. git clone https://github.com/aws-observability/application-signals-demo.git Fase 2: creazione ed esecuzione dell'applicazione di esempio Per creare e inviare le immagini di esempio dell'applicazione, segui queste istruzioni . Fase 3: implementazione e abilitazione di Application Signals e dell'applicazione di esempio Assicurati di aver completato i requisiti indicati in (Facoltativo) Prova di Application Signals su un'app di esempio prima di completare i seguenti passaggi. Per implementare e abilitare Application Signals e l'applicazione di esempio Inserire il seguente comando. Sostituisci new-cluster-name con il nome desiderato per il nuovo cluster. Sostituisci region-name con il nome della tua regione AWS, ad esempio us-west-1 . Questo comando configura l'app di esempio in esecuzione in un nuovo cluster Amazon EKS con Application Signals abilitato. # this script sets up a new cluster, enables Application Signals, and deploys the # sample application cd application-signals-demo/scripts/eks/appsignals/one-step && ./setup.sh new-cluster-name region-name L'esecuzione dello script di configurazione richiede circa 30 minuti ed esegue le seguenti operazioni: Crea un nuovo cluster Amazon EKS nella regione specificata. Crea le autorizzazioni IAM necessarie per Application Signals ( arn:aws:iam::aws:policy/AWSXrayWriteOnlyAccess e arn:aws:iam::aws:policy/CloudWatchAgentServerPolicy ). Abilita Application Signals installando l'agente CloudWatch e strumentando automaticamente l'applicazione di esempio per i parametri e i tracciamenti X-Ray di CloudWatch. Implementa l'applicazione di esempio Spring PetClinic nello stesso cluster Amazon EKS. Crea cinque canary CloudWatch Synthetics, denominati pc-add-vist , pc-create-owners , pc-visit-pet , pc-visit-vet , pc-clinic-traffic . Questi canary funzioneranno a una frequenza di un minuto per generare traffico sintetico per l'app di esempio e dimostrare come vengono visualizzati i canary Synthetics in Application Signals. Crea quattro obiettivi di livello di servizio (SLO) per l'applicazione PetClinic con i seguenti nomi: Disponibilità per Searching an Owner Latenza per Searching an Owner Disponibilità per Registering an Owner Latenza per Registering an Owner Crea il ruolo IAM richiesto con una policy di attendibilità personalizzata che concede ad Application Signals le seguenti autorizzazioni: cloudwatch:PutMetricData cloudwatch:GetMetricData xray:GetServiceGraph logs:StartQuery logs:GetQueryResults (Facoltativo) Se desideri esaminare il codice sorgente dell'applicazione di esempio PetClinic, puoi trovarlo nella cartella principale. - application-signals-demo - spring-petclinic-admin-server - spring-petclinic-api-gateway - spring-petclinic-config-server - spring-petclinic-customers-service - spring-petclinic-discovery-server - spring-petclinic-vets-service - spring-petclinic-visits-service Per visualizzare l'applicazione di esempio PetClinic distribuita, esegui il seguente comando per trovare l'URL: kubectl get ingress Fase 4: distribuzione dell'applicazione di esempio Dopo aver completato i passaggi nella sezione precedente per creare il cluster Amazon EKS e distribuire l'applicazione di esempio, puoi utilizzare Application Signals per monitorare l'applicazione. Nota Affinché la console Application Signals inizi a popolarsi, una parte del traffico deve raggiungere l'applicazione di esempio. Durante i passaggi precedenti sono stati creati canary CloudWatch Synthetics che generano traffico verso l'applicazione di esempio. Monitoraggio dei servizi Una volta abilitato, CloudWatch Application Signals rileva e compila automaticamente un elenco di servizi senza richiedere alcuna configurazione aggiuntiva. Per visualizzare l'elenco dei servizi rilevati e monitorarne lo stato Apri la console CloudWatch all'indirizzo https://console.aws.amazon.com/cloudwatch/ . Nel riquadro di navigazione, scegli Application Signals , Servizi . Per visualizzare un servizio, le sue operazioni e le sue dipendenze, scegli il nome di uno dei servizi nell'elenco. Questa visualizzazione unificata e incentrata sull'applicazione aiuta a fornire una prospettiva completa del modo in cui gli utenti interagiscono con il servizio. Questo può aiutarti a diagnosticare i problemi in caso di anomalie nelle prestazioni. Per i dettagli completi sulla visualizzazione dei Servizi , consulta Monitoraggio dell'integrità operativa delle applicazioni con Application Signals . Scegli la scheda Operazioni di servizio per visualizzare i parametri standard delle applicazioni per le operazioni di quel servizio. Le operazioni sono le operazioni API chiamate dal servizio, ad esempio. Quindi, per visualizzare i grafici per una singola operazione di quel servizio, scegli il nome dell'operazione. Scegli la scheda Dipendenze per visualizzare le dipendenze dell'applicazione, insieme ai parametri critici delle applicazioni per ciascuna dipendenza. Le dipendenze includono servizi AWS e servizi di terze parti chiamati dall'applicazione. Per visualizzare le tracce correlate dalla pagina dei dettagli del servizio, scegli un punto dati in uno dei tre grafici sopra la tabella. Questa operazione popola un nuovo riquadro con le tracce filtrate del periodo di tempo. Queste tracce vengono ordinate e filtrate in base al grafico scelto. Ad esempio, se hai scelto il grafico della latenza , le tracce vengono ordinate in base al tempo di risposta del servizio. Nel pannello di navigazione della console CloudWatch, scegli Gruppi di log . Vengono visualizzati gli SLO creati dallo script per l'applicazione di esempio. Per ulteriori informazioni sugli SLO, consulta Obiettivi del livello di servizio (SLO) . (Facoltativo) Fase 5: eliminazione Quando hai finito di testare Application Signals, puoi utilizzare uno script fornito da Amazon per ripulire ed eliminare gli artefatti creati nel tuo account per l'applicazione di esempio. Per eseguire la eliminazione, immetti il seguente comando. Sostituisci new-cluster-name con il nome del cluster creato per l'app di esempio e sostituisci region -name con il nome della regione AWS, ad esempio us-west-1 . cd application-signals-demo/scripts/eks/appsignals/one-step && ./cleanup.sh new-cluster-name region-name JavaScript è disabilitato o non è disponibile nel tuo browser. Per usare la documentazione AWS, JavaScript deve essere abilitato. Consulta le pagine della guida del browser per le istruzioni. Convenzioni dei documenti Abilitazione di Application Signals in un account Abilitazione delle applicazioni sui cluster Amazon EKS Questa pagina ti è stata utile? - Sì Grazie per averci comunicato che stiamo facendo un buon lavoro! Se hai un momento, ti invitiamo a dirci che cosa abbiamo fatto che ti è piaciuto così possiamo offrirti altri contenuti simili. Questa pagina ti è stata utile? - No Grazie per averci comunicato che questa pagina ha bisogno di essere modificata. Siamo spiacenti di non aver soddisfatto le tue esigenze. Se hai un momento, ti invitiamo a dirci come possiamo migliorare la documentazione. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/ko_kr/AmazonCloudWatch/latest/logs/LogsAnomalyDetection.html | 로그 이상 탐지 - Amazon CloudWatch Logs 로그 이상 탐지 - Amazon CloudWatch Logs 설명서 Amazon CloudWatch 사용자 안내서 이상 및 패턴의 심각도 및 우선순위 이상 가시성 시간 이상 항목 억제 자주 묻는 질문(FAQ) 기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다. 로그 이상 탐지 로그 데이터에서 이상 징후를 감지할 수 있는 방법은 지속적인 모니터링을 위해 로그 이상 탐지기 를 생성하는 것, 그리고 온디맨드 분석을 위해 CloudWatch Log Insights 쿼리에서 anomaly detection 명령을 사용하는 것입니다. 로그 이상 탐지기는 로그 그룹에 수집된 로그 이벤트를 스캔하여 로그 데이터에서 이상을 자동으로 찾습니다. 이상 탐지는 기계 학습 및 패턴 인식을 사용하여 일반적인 로그 콘텐츠의 기준을 설정합니다. 온디맨드 분석의 경우 CloudWatch Logs Insights 쿼리에서 anomaly detection 명령을 사용하여 시계열 데이터의 비정상적인 패턴을 식별할 수 있습니다. 쿼리 기반 이상 탐지에 대한 자세한 내용은 CloudWatch Logs Insights에서 이상 탐지 사용 을 참조하세요. 로그 그룹 이상 탐지기를 생성하면 이상 탐지기는 로그 그룹의 지난 2주 동안의 로그 이벤트를 사용하여 훈련됩니다. 훈련 기간은 최대 15분이 소요될 수 있습니다. 훈련이 완료되면 들어오는 로그를 분석하여 이상을 식별하기 시작하고, 검사할 수 있도록 CloudWatch Logs 콘솔에 이상이 표시됩니다. CloudWatch Logs 패턴 인식은 로그에서 정적 및 동적 콘텐츠를 식별하여 로그 패턴을 추출합니다. 많은 수의 로그 이벤트를 몇 가지 패턴으로 압축할 수 있기 때문에 패턴은 큰 로그 집합을 분석하는 데 유용합니다. 예를 들어, 다음 세 가지 로그 이벤트 샘플을 참조하세요. 2023-01-01 19:00:01 [INFO] Calling DynamoDB to store for ResourceID: 12342342k124-12345 2023-01-01 19:00:02 [INFO] Calling DynamoDB to store for ResourceID: 324892398123-1234R 2023-01-01 19:00:03 [INFO] Calling DynamoDB to store for ResourceID: 3ff231242342-12345 이전 샘플에서 세 로그 이벤트는 모두 한 가지 패턴을 따릅니다. <Date-1> <Time-2> [INFO] Calling DynamoDB to store for resource id <ResourceID-3> 패턴 내의 필드를 토큰 이라고 합니다. 요청 ID나 타임스탬프 같이 패턴 내에서 달라지는 필드를 동적 토큰 이라고 합니다. 동적 토큰에 대해 발견된 각 값을 토큰 값 이라고 합니다. CloudWatch Logs는 동적 토큰이 나타내는 데이터 유형을 추론할 수 있는 경우 토큰을 < string - number > 으로 표시합니다. string 은 토큰이 나타내는 데이터 유형에 대한 설명입니다. number 는 다른 동적 토큰과 비교하여 패턴에서 이 토큰이 나타나는 위치를 보여줍니다. CloudWatch Logs는 문자열을 포함하는 로그 이벤트의 콘텐츠 분석을 기반으로 이름의 문자열 부분을 할당합니다. CloudWatch Logs는 동적 토큰이 나타내는 데이터 유형을 추론할 수 없는 경우 토큰을 <Token- number >로 표시하며, number 는 패턴에서 이 토큰이 나타나는 위치를 다른 동적 토큰과 비교하여 나타냅니다. 동적 토큰의 일반적인 예로는 오류 코드, IP 주소, 타임스탬프, 요청 ID가 있습니다. 로그 이상 탐지는 이러한 패턴을 사용하여 이상을 찾습니다. 이상 탐지기 모델 훈련 기간이 지나면 알려진 추세와 비교하여 로그가 평가됩니다. 이상 탐지기는 상당한 변동을 이상으로 플래그 지정합니다. 이 장에서는 이상 탐지를 활성화하고, 이상을 보고, 로그 이상 탐지기를 위한 경보를 생성하고, 로그 이상 탐지기가 게시하는 지표를 생성하는 방법을 설명합니다. 또한 이상 탐지기와 그 결과를 암호화하는 방법도 설명합니다 AWS Key Management Service. 로그 이상 탐지기 생성에는 요금이 발생하지 않습니다. 이상 및 패턴의 심각도 및 우선순위 로그 이상 탐지기가 발견한 각 이상에는 우선순위 가 할당됩니다. 발견된 각 패턴에는 심각도 가 할당됩니다. 우선순위 는 자동으로 계산되며, 패턴의 심각도 수준 및 예상 값과의 편차 양을 기반으로 합니다. 예를 들어, 특정 토큰 값이 갑자기 500% 증가하는 경우 심각도가 NONE 이더라도 해당 이상을 HIGH 우선순위로 지정할 수 있습니다. 심각도 는 FATAL , ERROR , WARN 등 패턴에서 발견된 키워드만을 기반으로 합니다. 이러한 키워드를 찾을 수 없는 경우 패턴의 심각도는 NONE 으로 표시됩니다. 이상 가시성 시간 이상 탐지기를 생성할 때 이상 탐지기의 최대 가시성 기간을 지정합니다. 이 기간은 콘솔에 이상이 표시되고 ListAnomalies API 작업에 의해 이상이 반환되는 일수입니다. 이 기간이 경과한 후에도 계속 발생하는 이상은 자동으로 일반 동작으로 수락되고 이상 탐지기 모델은 이를 이상 현상으로 더 이상 플래그 지정하지 않습니다. 이상 탐지기를 생성할 때 가시성 시간을 조정하지 않으면 21일이 기본값으로 사용됩니다. 이상 항목 억제 이상이 발견된 후 일시적으로 또는 영구적으로 이를 억제하도록 선택할 수 있습니다. 이상 항목 억제를 선택하면 이상 탐지기는 지정한 시간 동안 이를 이상으로 플래그 지정하지 않습니다. 이상을 억제할 때 해당 특정 이상만 억제하거나 이상이 발견된 패턴과 관련된 모든 이상을 억제하도록 선택할 수 있습니다. 콘솔에서는 여전히 억제된 이상을 볼 수 있습니다. 이상 억제를 중지하도록 선택할 수도 있습니다. 자주 묻는 질문(FAQ) 내 데이터를 AWS 사용하여 AWS 사용 또는 다른 고객을 위한 기계 학습 알고리즘을 훈련하나요? 아니요. 훈련에서 생성된 이상 탐지 모델은 로그 그룹의 로그 이벤트를 기반으로 하며 해당 로그 그룹 및 해당 AWS 계정 내에서만 사용됩니다. 이상 탐지에 적합한 로그 이벤트 유형은 무엇입니까? 로그 이상 탐지가 적합한 로그 이벤트 유형 은 애플리케이션 로그 및 대부분의 로그 항목이 일반적인 패턴에 맞는 기타 유형의 로그입니다. 로그 수준 또는 INFO , ERROR , DEBUG 같은 심각도 키워드가 포함된 이벤트가 있는 로그 그룹은 로그 이상 탐지에 특히 적합합니다. 로그 이상 탐지가 적합하지 않은 로그 이벤트 는 CloudTrail Logs 같이 JSON 구조가 매우 긴 로그 이벤트입니다. 패턴 분석은 로그 줄의 처음 1,500자까지만 분석하므로 해당 한도를 넘는 모든 문자는 건너뜁니다. VPC 흐름 로그 같은 감사 또는 액세스 로그도 이상 탐지 성공률이 떨어집니다. 이상 탐지는 애플리케이션 문제를 찾기 위한 것이므로 네트워크 또는 액세스 이상에는 적합하지 않을 수 있습니다. CloudWatch Logs 패턴 분석을 사용하여 그룹의 로그 이벤트에서 패턴의 수를 찾으면 이상 탐지기가 특정 로그 그룹에 적합한지 여부를 결정하는 데 도움이 됩니다. 패턴의 수가 약 300개 이하인 경우 이상 탐지가 잘 작동할 수 있습니다. 패턴 분석에 대한 자세한 내용은 패턴 분석 을 참조하세요. 무엇이 이상으로 플래그 지정되나요? 다음과 같은 경우 로그 이벤트가 이상으로 플래그 지정될 수 있습니다. 로그 그룹에서 이전에 보이지 않던 패턴이 있는 로그 이벤트. 알려진 패턴의 상당한 변형. 일반적 값의 이산 집합이 있는 동적 토큰의 새 값. 동적 토큰의 특정 값 발생 횟수의 큰 변화. 위의 모든 항목이 이상으로 플래그 지정될 수 있지만, 모두 다 애플리케이션이 제대로 작동하지 않는다는 의미는 아닙니다. 예를 들어, 평소보다 많은 수의 200 성공 값은 이상으로 플래그가 지정될 수 있습니다. 이와 같은 경우 문제를 나타내지 않는 이러한 이상을 억제하는 것이 좋습니다. 마스킹 처리되는 민감한 데이터는 어떻게 되나요? 로그 이벤트에서 민감한 데이터로 마스킹 처리된 부분은 이상을 스캔하지 않습니다. 자세한 내용은 Help protect sensitive log data with masking 을 참조하세요. javascript가 브라우저에서 비활성화되거나 사용이 불가합니다. AWS 설명서를 사용하려면 Javascript가 활성화되어야 합니다. 지침을 보려면 브라우저의 도움말 페이지를 참조하십시오. 문서 규칙 예약된 쿼리 문제 해결 CloudWatch Logs Insights에서 이상 탐지 사용 이 페이지의 내용이 도움이 되었습니까? - 예 칭찬해 주셔서 감사합니다! 잠깐 시간을 내어 좋았던 부분을 알려 주시면 더 열심히 만들어 보겠습니다. 이 페이지의 내용이 도움이 되었습니까? - 아니요 이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/it_it/AmazonCloudWatch/latest/monitoring/CloudWatch_Synthetics_Canaries.html | Monitoraggio sintetico (canary) - Amazon CloudWatch Monitoraggio sintetico (canary) - Amazon CloudWatch Documentazione Amazon CloudWatch Guida per l’utente Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà. Monitoraggio sintetico (canary) Puoi usare Amazon CloudWatch Synthetics per creare canaries, script configurabili eseguiti secondo una pianificazione, per monitorare i tuoi endpoint e. APIs I canary seguono gli stessi percorsi ed eseguono le stesse azioni di un cliente, il che ti consente di verificare continuamente la tua esperienza cliente anche quando non hai alcun traffico clienti sulle tue applicazioni. Con i canary puoi scoprire i problemi prima che vengano rilevati dai clienti. I canary sono script scritti in Node.js, Python o Java. Creano funzioni Lambda nel tuo account che utilizzano Node.js, Python o Java come runtime. I canary funzionano su protocolli HTTP e HTTPS. I canarini usano livelli Lambda che contengono la libreria CloudWatch Synthetics. La libreria include implementazioni CloudWatch Synthetics per NodeJS, Python e Java. I canary nei runtime Node.js e Python offrono l'accesso programmatico ai browser headless tramite Playwright, Puppeteer o Selenium Webdriver. Sono supportati più browser, tra cui Google Chrome headless e Mozilla Firefox. Per ulteriori informazioni su Playwright, consulta Playwright . Per ulteriori informazioni su Puppeteer, consulta Puppeteer . Per ulteriori informazioni su Selenium, consulta Selenium . I canary su Selenium supportano solo il browser Chrome. I canary in Java sono progettati per garantire la flessibilità nel monitoraggio di qualsiasi tipo di servizio o applicazione e non contengono supporto o framework per il browser. I canary controllano la disponibilità e la latenza degli endpoint e possono archiviare i dati relativi al tempo di caricamento e le schermate dell'interfaccia utente. Monitorano il REST APIs e il contenuto del sito Web e possono verificare la presenza di modifiche non autorizzate dovute al phishing, all'iniezione di codice e al cross-site scripting. URLs CloudWatch Synthetics è integrato con Application Signals, che può scoprire e monitorare i servizi applicativi, i client, i canari Synthetics e le dipendenze dei servizi. Utilizza Application Signals per visualizzare un elenco o una mappa visiva dei tuoi servizi, visualizzare le metriche sanitarie in base agli obiettivi del livello di servizio (SLOs) e approfondire le tracce a raggi X correlate per una risoluzione dei problemi più dettagliata. Per vedere i canary in Application Signals, attiva il tracciamento attivo X-Ray . I tuoi canary vengono visualizzati nella mappa dell'applicazione connessa ai tuoi servizi e nella pagina dei dettagli del servizio relativa ai servizi che chiamano. Per una dimostrazione video dei canary, consulta quanto segue: Introduzione ad Amazon CloudWatch Synthetics Dimostrazione di Amazon CloudWatch Synthetics Crea canarie usando Amazon CloudWatch Synthetics Monitoraggio visivo con Amazon CloudWatch Synthetics Puoi eseguire un canary una volta o a intervalli regolari. I canary possono funzionare con una frequenza di una volta al minuto. Puoi utilizzare espressioni Cron e Rate per programmare i canary. Per informazioni sui problemi di sicurezza da considerare prima di creare ed eseguire i canary, consulta Considerazioni sulla sicurezza per Canary Synthetics . Per impostazione predefinita, i canari creano diverse CloudWatch metriche nel namespace. CloudWatchSynthetics Questi parametri hanno CanaryName come dimensione. Anche i canary che utilizzano la funzione executeStep() o executeHttpStep() dalla libreria funzioni hanno StepName come dimensione. Per ulteriori informazioni sulla libreria di funzioni canary, consulta Funzioni di libreria disponibili per gli script canary . CloudWatch Synthetics si integra bene con la X-Ray Trace Map, che CloudWatch utilizza AWS X-Ray with per fornire end-to-end una panoramica dei vostri servizi per aiutarvi a individuare in modo più efficiente i punti deboli delle prestazioni e identificare gli utenti interessati. I canarini creati con CloudWatch Synthetics vengono visualizzati sulla mappa di tracciamento. Per ulteriori informazioni sul tracciamento con X-Ray, consulta Mappa di tracciamento X-Ray . CloudWatch Synthetics è attualmente disponibile in tutte le regioni AWS commerciali e le regioni. GovCloud Nota In Asia Pacifico (Osaka), non AWS PrivateLink è supportato. In Asia Pacifico (Jakarta), AWS PrivateLink e X-Ray non sono supportati. Argomenti Ruoli e autorizzazioni richiesti per i canarini CloudWatch Creazione di un Canary Gruppi Test di un canary in locale Risoluzione dei problemi di un canary fallito Codice di esempio per gli script canary Canary e tracciamento X-Ray Esecuzione di un Canary su un VPC Crittografia di artefatti canary Visualizzazione delle statistiche e dei dettagli dei Canary CloudWatch metriche pubblicate da canaries Modifica o eliminazione di un canary Avvio, interruzione, eliminazione o aggiornamento del runtime di più canary Monitoraggio degli eventi delle Canarie con Amazon EventBridge Esecuzione di aggiornamenti sicuri sul canary JavaScript è disabilitato o non è disponibile nel tuo browser. Per usare la documentazione AWS, JavaScript deve essere abilitato. Consulta le pagine della guida del browser per le istruzioni. Convenzioni dei documenti Risoluzione dei problemi dell’applicazione Ruoli e autorizzazioni correlati Questa pagina ti è stata utile? - Sì Grazie per averci comunicato che stiamo facendo un buon lavoro! Se hai un momento, ti invitiamo a dirci che cosa abbiamo fatto che ti è piaciuto così possiamo offrirti altri contenuti simili. Questa pagina ti è stata utile? - No Grazie per averci comunicato che questa pagina ha bisogno di essere modificata. Siamo spiacenti di non aver soddisfatto le tue esigenze. Se hai un momento, ti invitiamo a dirci come possiamo migliorare la documentazione. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Solution-NVIDIA-GPU-On-EC2.html | CloudWatch solution: NVIDIA GPU workload on Amazon EC2 - Amazon CloudWatch CloudWatch solution: NVIDIA GPU workload on Amazon EC2 - Amazon CloudWatch Documentation Amazon CloudWatch User Guide Requirements Benefits CloudWatch agent configuration for this solution Deploy the agent for your solution Create the NVIDIA GPU solution dashboard CloudWatch solution: NVIDIA GPU workload on Amazon EC2 This solution helps you configure out-of-the-box metric collection using CloudWatch agents for NVIDIA GPU workloads running on EC2 instances. Additionally, it helps you set up a pre-configured CloudWatch dashboard. For general information about all CloudWatch observability solutions, see CloudWatch observability solutions . Topics Requirements Benefits CloudWatch agent configuration for this solution Deploy the agent for your solution Create the NVIDIA GPU solution dashboard Requirements This solution is relevant for the following conditions: Compute: Amazon EC2 Supports up to 500 GPUs across all EC2 instances in a given AWS Region Latest version of CloudWatch agent SSM agent installed on EC2 instance The EC2 instance must have an NVIDIA driver installed. NVIDIA drivers are pre-installed on some Amazon Machine Images (AMIs). Otherwise, you can manually install the driver. For more information, see Install NVIDIA drivers on Linux instances . Note AWS Systems Manager (SSM agent) is pre-installed on some Amazon Machine Images (AMIs) provided by AWS and trusted third-parties. If the agent isn't installed, you can install it manually using the procedure for your operating system type. Manually installing and uninstalling SSM Agent on EC2 instances for Linux Manually installing and uninstalling SSM Agent on EC2 instances for macOS Manually installing and uninstalling SSM Agent on EC2 instances for Windows Server Benefits The solution delivers NVIDIA monitoring, providing valuable insights for the following use cases: Analyze GPU and memory usage for performance bottlenecks or the need for additional resources. Monitor temperature and power draw to ensure GPUs operate within safe limits. Evaluate encoder performance for GPU video workloads. Verify PCIe connectivity for expected generation and width. Monitor GPU clock speeds to detect scaling and throttling issues. Below are the key advantages of the solution: Automates metric collection for NVIDIA using CloudWatch agent configuration, eliminating manual instrumentation. Provides a pre-configured, consolidated CloudWatch dashboard for NVIDIA metrics. The dashboard will automatically handle metrics from new NVIDIA EC2 instances configured using the solution, even if those metrics don't exist when you first create the dashboard. The following image is an example of the dashboard for this solution. Costs This solution creates and uses resources in your account. You are charged for standard usage, including the following: All metrics collected by the CloudWatch agent are charged as custom metrics. The number of metrics used by this solution depends on the number of EC2 hosts. Each EC2 host configured for the solution publishes a total of 17 metrics per GPU. One custom dashboard. API operations requested by the CloudWatch agent to publish the metrics. With the default configuration for this solution, the CloudWatch agent calls the PutMetricData once every minute for each EC2 host. This means the PutMetricData API will be called 30*24*60=43,200 in a 30-day month for each EC2 host. For more information about CloudWatch pricing, see Amazon CloudWatch Pricing . The pricing calculator can help you estimate approximate monthly costs for using this solution. To use the pricing calculator to estimate your monthly solution costs Open the Amazon CloudWatch pricing calculator . For Choose a Region , select the Region where you would like to deploy the solution. In the Metrics section, for Number of metrics , enter 17 * average number of GPUs per EC2 host * number of EC2 instances configured for this solution . In the APIs section, for Number of API requests , enter 43200 * number of EC2 instances configured for this solution . By default, the CloudWatch agent performs one PutMetricData operation each minute for each EC2 host. In the Dashboards and Alarms section, for Number of Dashboards , enter 1 . You can see your monthly estimated costs at the bottom of the pricing calculator. CloudWatch agent configuration for this solution The CloudWatch agent is software that runs continuously and autonomously on your servers and in containerized environments. It collects metrics, logs, and traces from your infrastructure and applications and sends them to CloudWatch and X-Ray. For more information about the CloudWatch agent, see Collect metrics, logs, and traces using the CloudWatch agent . The agent configuration in this solution collects a set of metrics to help you get started monitoring and observing your NVIDIA GPU. The CloudWatch agent can be configured to collect more NVIDIA GPU metrics than the dashboard displays by default. For a list of all NVIDIA GPU metrics that you can collect, see Collect NVIDIA GPU metrics . Agent configuration for this solution The metrics collected by the agent are defined in the agent configuration. The solution provides agent configurations to collect the recommended metrics with suitable dimensions for the solution's dashboard. Use the following CloudWatch agent configuration on EC2 instances with NVIDIA GPUs. Configuration will be stored as a parameter in SSM's Parameter Store, as detailed later in Step 2: Store the recommended CloudWatch agent configuration file in Systems Manager Parameter Store . { "metrics": { "namespace": "CWAgent", "append_dimensions": { "InstanceId": "$ { aws:InstanceId}" }, "metrics_collected": { "nvidia_gpu": { "measurement": [ "utilization_gpu", "temperature_gpu", "power_draw", "utilization_memory", "fan_speed", "memory_total", "memory_used", "memory_free", "pcie_link_gen_current", "pcie_link_width_current", "encoder_stats_session_count", "encoder_stats_average_fps", "encoder_stats_average_latency", "clocks_current_graphics", "clocks_current_sm", "clocks_current_memory", "clocks_current_video" ], "metrics_collection_interval": 60 } } }, "force_flush_interval": 60 } Deploy the agent for your solution There are several approaches for installing the CloudWatch agent, depending on the use case. We recommend using Systems Manager for this solution. It provides a console experience and makes it simpler to manage a fleet of managed servers within a single AWS account. The instructions in this section use Systems Manager and are intended for when you don't have the CloudWatch agent running with existing configurations. You can check whether the CloudWatch agent is running by following the steps in Verify that the CloudWatch agent is running . If you are already running the CloudWatch agent on the EC2 hosts where the workload is deployed and managing agent configurations, you can skip the instructions in this section and follow your existing deployment mechanism to update the configuration. Be sure to merge the agent configuration of NVIDIA GPU with your existing agent configuration, and then deploy the merged configuration. If you are using Systems Manager to store and manage the configuration for the CloudWatch agent, you can merge the configuration to the existing parameter value. For more information, see Managing CloudWatch agent configuration files . Note Using Systems Manager to deploy the following CloudWatch agent configurations will replace or overwrite any existing CloudWatch agent configuration on your EC2 instances. You can modify this configuration to suit your unique environment or use case. The metrics defined in configuration are the minimum required for the dashboard provided the solution. The deployment process includes the following steps: Step 1: Ensure that the target EC2 instances have the required IAM permissions. Step 2: Store the recommended agent configuration file in the Systems Manager Parameter Store. Step 3: Install the CloudWatch agent on one or more EC2 instances using an CloudFormation stack. Step 4: Verify the agent setup is configured properly. Step 1: Ensure the target EC2 instances have the required IAM permissions You must grant permission for Systems Manager to install and configure the CloudWatch agent. You must also grant permission for the CloudWatch agent to publish telemetry from your EC2 instance to CloudWatch. Make sure that the IAM role attached to the instance has the CloudWatchAgentServerPolicy and AmazonSSMManagedInstanceCore IAM policies attached. After the role is created, attach the role to your EC2 instances. To attach a role to an EC2 instance, follow the steps in Attach an IAM role to an instance . Step 2: Store the recommended CloudWatch agent configuration file in Systems Manager Parameter Store Parameter Store simplifies the installation of the CloudWatch agent on an EC2 instance by securely storing and managing configuration parameters, eliminating the need for hard-coded values. This ensures a more secure and flexible deployment process, enabling centralized management and easier updates to configurations across multiple instances. Use the following steps to store the recommended CloudWatch agent configuration file as a parameter in Parameter Store. To create the CloudWatch agent configuration file as a parameter Open the AWS Systems Manager console at https://console.aws.amazon.com/systems-manager/ . Verify that the selected Region on the console is the Region where the NVIDIA GPU workload is running. From the navigation pane, choose Application Management , Parameter Store . Follow these steps to create a new parameter for the configuration. Choose Create parameter . In the Name box, enter a name that you'll use to reference the CloudWatch agent configuration file in later steps. For example, AmazonCloudWatch-NVIDIA-GPU-Configuration . (Optional) In the Description box, type a description for the parameter. For Parameter tier , choose Standard . For Type , choose String . For Data type , choose text . In the Value box, paste the corresponding JSON block that was listed in Agent configuration for this solution . Choose Create parameter . Step 3: Install the CloudWatch agent and apply the configuration using an CloudFormation template You can use AWS CloudFormation to install the agent and configure it to use the CloudWatch agent configuration that you created in the previous steps. To install and configure the CloudWatch agent for this solution Open the CloudFormation Quick create stack wizard using this link: https://console.aws.amazon.com/cloudformation/home?#/stacks/quickcreate?templateURL=https://aws-observability-solutions-prod-us-east-1.s3.us-east-1.amazonaws.com/CloudWatchAgent/CFN/v1.0.0/cw-agent-installation-template-1.0.0.json . Verify that the selected Region on the console is the Region where the NVIDIA GPU workload is running. For Stack name , enter a name to identity this stack, such as CWAgentInstallationStack . In the Parameters section, specify the following: For CloudWatchAgentConfigSSM , enter the name of the Systems Manager parameter for the agent configuration that you created earlier, such as AmazonCloudWatch-NVIDIA-GPU-Configuration . To select the target instances, you have two options. For InstanceIds , specify a comma-delimited list of instance IDs list of instance IDs where you want to install the CloudWatch agent with this configuration. You can list a single instance or several instances. If you are deploying at scale, you can specify the TagKey and the corresponding TagValue to target all EC2 instances with this tag and value. If you specify a TagKey , you must specify a corresponding TagValue . (For an Auto Scaling group, specify aws:autoscaling:groupName for the TagKey and specify the Auto Scaling group name for the TagValue to deploy to all instances within the Auto Scaling group.) Review the settings, then choose Create stack . If you want to edit the template file first to customize it, choose the Upload a template file option under Create Stack Wizard to upload the edited template. For more information, see Creating a stack on CloudFormation console . Note After this step is completed, this Systems Manager parameter will be associated with the CloudWatch agents running in the targeted instances. This means that: If the Systems Manager parameter is deleted, the agent will stop. If the Systems Manager parameter is edited, the configuration changes will automatically apply to the agent at the scheduled frequency which is 30 days by default. If you want to immediately apply changes to this Systems Manager parameter, you must run this step again. For more information about associations, see Working with associations in Systems Manager . Step 4: Verify the agent setup is configured properly You can verify whether the CloudWatch agent is installed by following the steps in Verify that the CloudWatch agent is running . If the CloudWatch agent is not installed and running, make sure you have set up everything correctly. Be sure you have attached a role with correct permissions for the EC2 instance as described in Step 1: Ensure the target EC2 instances have the required IAM permissions . Be sure you have correctly configured the JSON for the Systems Manager parameter. Follow the steps in Troubleshooting installation of the CloudWatch agent with CloudFormation . If everything is set up correctly, then you should see the NVIDIA GPU metrics being published to CloudWatch. You can check the CloudWatch console to verify they are being published. To verify that NVIDIA GPU metrics are being published to CloudWatch Open the CloudWatch console at https://console.aws.amazon.com/cloudwatch/ . Choose Metrics , All metrics . Make sure you've selected the Region where you deployed the solution, and choose Custom namespaces , CWAgent . Search for the metrics mentioned in Agent configuration for this solution , such as nvidia_smi_utilization_gpu . If you see results for these metrics, then the metrics are being published to CloudWatch. Create the NVIDIA GPU solution dashboard The dashboard provided by this solution presents NVIDIA GPUs metrics by aggregating and presenting metrics across all instances. The dashboard shows a breakdown of the top contributors (top 10 per metric widget) for each metric. This helps you to quickly identify outliers or instances that significantly contribute to the observed metrics. To create the dashboard, you can use the following options: Use CloudWatch console to create the dashboard. Use AWS CloudFormation console to deploy the dashboard. Download the AWS CloudFormation infrastructure as code and integrate it as part of your continuous integration (CI) automation. By using the CloudWatch console to create a dashboard, you can preview the dashboard before actually creating and being charged. Note The dashboard created with CloudFormation in this solution displays metrics from the Region where the solution is deployed. Be sure to create the CloudFormation stack in the Region where your NVIDIA GPU metrics are published. If you've specified a custom namespace other than CWAgent in the CloudWatch agent configuration, you'll have to change the CloudFormation template for the dashboard to replace CWAgent with the customized namespace you are using. To create the dashboard via CloudWatch Console Open the CloudWatch Console Create Dashboard using this link: https://console.aws.amazon.com/cloudwatch/home?#dashboards?dashboardTemplate=NvidiaGpuOnEc2&referrer=os-catalog . Verify that the selected Region on the console is the Region where the NVIDIA GPU workload is running. Enter the name of the dashboard, then choose Create Dashboard . To easily differentiate this dashboard from similar dashboards in other Regions, we recommend including the Region name in the dashboard name, such as NVIDIA-GPU-Dashboard-us-east-1 . Preview the dashboard and choose Save to create the dashboard. To create the dashboard via CloudFormation Open the CloudFormation Quick create stack wizard using this link: https://console.aws.amazon.com/cloudformation/home?#/stacks/quickcreate?templateURL=https://aws-observability-solutions-prod-us-east-1.s3.us-east-1.amazonaws.com/NVIDIA_GPU_EC2/CloudWatch/CFN/v1.0.0/dashboard-template-1.0.0.json . Verify that the selected Region on the console is the Region where the NVIDIA GPU workload is running. For Stack name , enter a name to identity this stack, such as NVIDIA-GPU-DashboardStack . In the Parameters section, specify the name of the dashboard under the DashboardName parameter. To easily differentiate this dashboard from similar dashboards in other Regions, we recommend including the Region name in the dashboard name, such as NVIDIA-GPU-Dashboard-us-east-1 . Acknowledge access capabilities for transforms under Capabilities and transforms . Note that CloudFormation doesn't add any IAM resources. Review the settings, then choose Create stack . After the stack status is CREATE_COMPLETE , choose the Resources tab under the created stack and then choose the link under Physical ID to go to the dashboard. You can also access the dashboard in the CloudWatch console by choosing Dashboards in the left navigation pane of the console, and finding the dashboard name under Custom Dashboards . If you want to edit the template file to customize it for any purpose, you can use Upload a template file option under Create Stack Wizard to upload the edited template. For more information, see Creating a stack on CloudFormation console . You can use this link to download the template: https://aws-observability-solutions-prod-us-east-1.s3.us-east-1.amazonaws.com/NVIDIA_GPU_EC2/CloudWatch/CFN/v1.0.0/dashboard-template-1.0.0.json . Get started with the NVIDIA GPU dashboard Here are a few tasks that you can try out with the new NVIDIA GPU dashboard. These tasks allow you to validate that the dashboard is working correctly and provide you some hands-on experience using it to monitor your NVIDIA GPUs. As you try these out, you'll get familiar with navigating the dashboard and interpreting the visualized metrics. Review GPU utilization From the Utilization section, find the GPU Utilization and Memory Utilization widgets. These show the percentage of time the GPU is being actively used for computations and the percentage of global memory being read or written, respectively. High utilization could indicate potential performance bottlenecks or the need for additional GPU resources. Analyze GPU memory usage In the Memory section, find the Total Memory , Used Memory , and Free Memory widgets. These provide insights into the overall memory capacity of the GPUs and how much memory is currently being consumed or available. Memory pressure could lead to performance issues or out-of-memory errors, so it's important to monitor these metrics and ensure sufficient memory is available for your workloads. Monitor temperature and power draw In the Temperature / Power section, find the GPU Temperature and Power Draw widgets. These metrics are essential for ensuring that your GPUs are operating within safe thermal and power limits. Identify encoder performance In the Encoder section, find the Encoder Session Count , Average FPS , and Average Latency widgets. These metrics are relevant if you're running video encoding workloads on your GPUs. Monitor these metrics to ensure that your encoders are performing optimally and identify any potential bottlenecks or performance issues. Check PCIe link status In the PCIe section, find the PCIe Link Generation and PCIe Link Width widgets. These metrics provide information about the PCIe link connecting the GPU to the host system. Ensure that the link is operating at the expected generation and width to avoid potential performance limitations due to PCIe bottlenecks. Review GPU clocks In the Clock section, find the Graphics Clock , SM Clock , Memory Clock , and Video Clock widgets. These metrics show the current operating frequencies of various GPU components. Monitoring these clocks can help identify potential issues with GPU clock scaling or frequency throttling, which could impact performance. Javascript is disabled or is unavailable in your browser. To use the Amazon Web Services Documentation, Javascript must be enabled. Please refer to your browser's Help pages for instructions. Document Conventions NGINX workload on EC2 Kafka workload on EC2 Did this page help you? - Yes Thanks for letting us know we're doing a good job! If you've got a moment, please tell us what we did right so we can do more of it. Did this page help you? - No Thanks for letting us know this page needs work. We're sorry we let you down. If you've got a moment, please tell us how we can make the documentation better. | 2026-01-13T09:29:26 |
https://foundryco.com/ad-choices/ | Foundry Ad Choices & Interest-Based Ads Policy Skip to content Search Contact us Translation available Select an experience Japan Global Search for: Search Brands CIO CSO InfoWorld Network World Computerworld Macworld PCWorld Tech Advisor TechHive ChannelWorld Specialty brands CIO100 CSO50 All brands Audiences Artificial intelligence Cloud Security Hardware Software All audiences Solutions Ads Audiences Lead gen Intent data Brand experiences Interactive storytelling Events Partner marketing Content creation Affiliate marketing All solutions Research Technology insights AI Priorities CIO Tech Priorities Cloud Computing Security Priorities State of the CIO Buying process Customer Engagement Role & Influence Partner Marketing All research Resources Resources Tools for marketers Blog Videos Customer stories Developer portal The Intersection newsletter All resources About us Press Awards Work here Privacy / Compliance Licensing About Us Brands CIO CSO InfoWorld Network World Computerworld Macworld PCWorld Tech Advisor TechHive ChannelWorld Specialty brands CIO 100 CSO50 All brands Audiences Artificial intelligence Cloud Security Hardware Software All audiences Solutions Ads Lead gen Intent data Brand experiences Interactive storytelling Events Partner marketing Content creation Affiliate marketing All solutions Research Technology insights AI Priorities CIO Tech Priorities Cloud Computing Security Priorities State of the CIO Buying process Customer Engagement Role & Influence Partner Marketing All research Resources Resources Tools for marketers Blog Videos Customer stories Developer Portal The Intersection newsletter All Resources About us Press Awards Work here Privacy / Compliance Licensing About Us Contact Log in Edition - Select an experience Japan Global About Foundry Ad Choices Foundry strives to deliver the most relevant content and ads to our readers. The advertising included on our site enables us to deliver the reporting resources required to create the high-quality journalism, research and analysis our audience expects. Advertisements displayed on our site may be based on the content of pages viewed or delivered by third parties and tailored to your interests. These third parties may also collect anonymous, non-personally identifiable information through cookies, web beacons and other technologies about your online activities on this site in order to deliver advertisements relevant to your interests. Our Policy Foundry follows the Self-Regulatory Principles for Online Behavioral advertising. More information on the principles, as well as information and choices about interest-based advertising, can be found at the Self-Regulatory Program site , including links to opt-out from services that deliver online behavioral ads. For additional information on cookies, web beacons and our collection and use of information, please read our Privacy Policy . Our brands Solutions Research Resources Events About Newsletter Contact us Work here Sitemap Topics Cookies: First-party & third-party Generative AI sponsorships Intent data IP address intelligence Reverse IP lookup Website visitor tracking Legal Terms of Service Privacy / Compliance Environmental Policy Copyright Notice Licensing CCPA IAB Europe TCF Regions ASEAN Australia & New Zealand Central Europe Germany India Middle East, Turkey, & Africa Nordics Southern Europe Western Europe Facebook Twitter LinkedIn ©2026 FoundryCo, Inc. All Rights Reserved. Privacy Policy Ad Choices Privacy Settings California: Do Not Sell My Information | 2026-01-13T09:29:26 |
https://www.infoworld.com/cloud-computing/ | Cloud Computing | InfoWorld Topics Latest Newsletters Resources Buyer’s Guides About About Us Advertise Contact Us Editorial Ethics Policy Foundry Careers Newsletters Contribute to InfoWorld Reprints Policies Terms of Service Privacy Policy Cookie Policy Copyright Notice Member Preferences About AdChoices Your California Privacy Rights Our Network CIO Computerworld CSO Network World More News Features Blogs BrandPosts Events Videos Enterprise Buyer’s Guides Close Analytics Artificial Intelligence Generative AI Careers Cloud Computing Data Management Databases Emerging Technology Technology Industry Security Software Development Microsoft .NET Development Tools Devops Open Source Programming Languages Java JavaScript Python IT Leadership Enterprise Buyer’s Guides Back Close Back Close Popular Topics Artificial Intelligence Cloud Computing Data Management Software Development Search Topics Latest Newsletters Resources Buyer’s Guides About Policies Our Network More Back Topics Analytics Artificial Intelligence Generative AI Careers Cloud Computing Data Management Databases Emerging Technology Technology Industry Security Software Development Microsoft .NET Development Tools Devops Open Source Programming Languages Java JavaScript Python IT Leadership Enterprise Buyer’s Guides Back About About Us Advertise Contact Us Editorial Ethics Policy Foundry Careers Newsletters Contribute to InfoWorld Reprints Back Policies Terms of Service Privacy Policy Cookie Policy Copyright Notice Member Preferences About AdChoices Your California Privacy Rights Back Our Network CIO Computerworld CSO Network World Back More News Features Blogs BrandPosts Events Videos Enterprise Buyer’s Guides Home Cloud Computing Sponsored by KPMG Cloud Computing Cloud Computing | News, how-tos, features, reviews, and videos Explore related topics Cloud Architecture Cloud Management Cloud Storage Cloud-Native Hybrid Cloud IaaS Managed Cloud Services Multicloud PaaS Private Cloud SaaS Latest from today analysis Which development platforms and tools should you learn now? For software developers, choosing which technologies and skills to master next has never been more difficult. Experts offer their recommendations. By Isaac Sacolick Jan 13, 2026 8 mins Development Tools Devops Generative AI analysis Why hybrid cloud is the future of enterprise platforms By David Linthicum Jan 13, 2026 4 mins Artificial Intelligence Cloud Architecture Hybrid Cloud news Oracle unveils Java development plans for 2026 By Paul Krill Jan 12, 2026 3 mins Java Programming Languages Software Development news AI is causing developers to abandon Stack Overflow By Mikael Markander Jan 12, 2026 2 mins Artificial Intelligence Generative AI Software Development opinion Stack thinking: Why a single AI platform won’t cut it By Tom Popomaronis Jan 12, 2026 8 mins Artificial Intelligence Development Tools Software Development news Postman snaps up Fern to reduce developer friction around API documentation and SDKs By Anirban Ghoshal Jan 12, 2026 3 mins APIs Software Development opinion Why ‘boring’ VS Code keeps winning By Matt Asay Jan 12, 2026 7 mins Developer GitHub Visual Studio Code feature How to succeed with AI-powered, low-code and no-code development tools By Bob Violino Jan 12, 2026 9 mins Development Tools Generative AI No Code and Low Code news Visual Studio Code adds support for agent skills By Paul Krill Jan 9, 2026 3 mins Development Tools Integrated Development Environments Visual Studio Code Articles news analysis Snowflake: Latest news and insights Stay up-to-date on how Snowflake and its underlying architecture has changed how cloud developers, data managers and data scientists approach cloud data management and analytics By Dan Muse Jan 9, 2026 5 mins Cloud Architecture Cloud Computing Cloud Management news Snowflake to acquire Observe to boost observability in AIops The acquisition could position Snowflake as a control plane for production AI, giving CIOs visibility across data, models, and infrastructure without the pricing shock of traditional observability stacks, analysts say. By Anirban Ghoshal Jan 9, 2026 3 mins Artificial Intelligence Software Development feature Python starts 2026 with a bang The world’s most popular programming language kicks off the new year with a wicked-fast type checker, a C code generator, and a second chance for the tail-calling interpreter. By Serdar Yegulalp Jan 9, 2026 2 mins Programming Languages Python Software Development news Microsoft open-sources XAML Studio Forthcoming update of the rapid prototyping tool for WinUI developers, now available on GitHub, adds a new Fluent UI design, folder support, and a live properties panel. By Paul Krill Jan 8, 2026 1 min Development Tools Integrated Development Environments Visual Studio analysis What drives your cloud security strategy? As cloud breaches increase, organizations should prioritize skills and training over the latest tech to address the actual root problems. By David Linthicum Jan 6, 2026 5 mins Careers Cloud Security IT Skills and Training news Databricks says its Instructed Retriever offers better AI answers than RAG in the enterprise Databricks says Instructed Retriever outperforms RAG and could move AI pilots to production faster, but analysts warn it could expose data, governance, and budget gaps that CIOs can’t ignore. By Anirban Ghoshal Jan 8, 2026 5 mins Artificial Intelligence Generative AI opinion The hidden devops crisis that AI workloads are about to expose Devops teams that cling to component-level testing and basic monitoring will struggle to keep pace with the data demands of AI. By Joseph Morais Jan 8, 2026 6 mins Artificial Intelligence Devops Generative AI news AI-built Rue language pairs Rust memory safety with ease of use Developed using Anthropic’s Claude AI model, the new language is intended to provide memory safety without garbage collection while being easier to use than Rust and Zig. By Paul Krill Jan 7, 2026 2 mins Generative AI Programming Languages Rust news Microsoft acquires Osmos to ease data engineering bottlenecks in Fabric The acquisition could help enterprises push analytics and AI projects into production faster while acting as the missing autonomy layer that connects Fabric’s recent enhancements into a coherent system. By Anirban Ghoshal Jan 7, 2026 4 mins Analytics Artificial Intelligence Data Engineering opinion What the loom tells us about AI and coding Like the loom, AI may turn the job market upside down. And enable new technologies and jobs that we simply can’t predict. By Nick Hodges Jan 7, 2026 4 mins Developer Engineer Generative AI analysis Generative UI: The AI agent is the front end In a new model for user interfaces, agents paint the screen with interactive UI components on demand. Let’s take a look. By Matthew Tyson Jan 7, 2026 8 mins Development Tools Generative AI Libraries and Frameworks news AI won’t replace human devs for at least 5 years Progress towards full AI-driven coding automation continues, but in steps rather than leaps, giving organizations time to prepare, according to a new study. By Taryn Plumb Jan 7, 2026 7 mins Artificial Intelligence Developer Roles news Automated data poisoning proposed as a solution for AI theft threat For hackers, the stolen data would be useless, but authorized users would have a secret key that filters out the fake information. By Howard Solomon Jan 7, 2026 6 mins Artificial Intelligence Data Privacy Privacy Show more Show less View all Video on demand video How to generate C-like programs with Python You might be familiar with how Python and C can work together, by way of projects like Cython. The new PythoC project has a unique twist on working with both languages: it lets you write type-decorated Python that can generate entire standalone C programs, not just importable Python libraries written in C. This video shows a few basic PythoC functions, from generating a whole program to using some of PythoC’s typing features to provide better memory management than C alone could. Dec 16, 2025 5 mins Python Zed Editor Review: The Rust-Powered IDE That Might Replace VS Code Dec 3, 2025 5 mins Python Python vs. Kotlin Nov 13, 2025 5 mins Python Hands-on with the new sampling profiler in Python 3.15 Nov 6, 2025 6 mins Python See all videos Explore a topic Analytics Artificial Intelligence Careers Data Management Databases Development Tools Devops Emerging Technology Generative AI Java JavaScript Microsoft .NET Open Source Programming Languages View all topics All topics Close Browse all topics and categories below. Analytics Artificial Intelligence Careers Data Management Databases Development Tools Devops Emerging Technology Generative AI Java JavaScript Microsoft .NET Open Source Programming Languages Python Security Software Development Technology Industry Show me more Latest Articles Videos news Ruby 4.0.0 introduces ZJIT compiler, Ruby Box isolation By Paul Krill Jan 6, 2026 3 mins Programming Languages Ruby Software Development news Open WebUI bug turns the ‘free model’ into an enterprise backdoor By Shweta Sharma Jan 6, 2026 3 mins Artificial Intelligence Security Vulnerabilities interview Generative AI and the future of databases By Martin Heller Jan 6, 2026 14 mins Artificial Intelligence Databases Generative AI video How to make local packages universal across Python venvs Nov 4, 2025 4 mins Python video X-ray vision for your async activity in Python 3.14 Oct 21, 2025 4 mins Python video Why it's so hard to redistribute standalone Python apps Oct 17, 2025 5 mins Python About About Us Advertise Contact Us Editorial Ethics Policy Foundry Careers Reprints Newsletters BrandPosts Policies Terms of Service Privacy Policy Cookie Policy Copyright Notice Member Preferences About AdChoices Your California Privacy Rights Privacy Settings Our Network CIO Computerworld CSO Network World Facebook X YouTube Google News LinkedIn © 2026 FoundryCo, Inc. All Rights Reserved. | 2026-01-13T09:29:26 |
https://www.facebook.com/login/?next=https%3A%2F%2Fl.facebook.com%2Fl.php%3Fu%3Dhttps%253A%252F%252Fwww.instagram.com%252F%26amp%253Bh%3DAT2FpiAS5Z4gP0BLmRzfuo4BALg9YPzbZ9ghFRCmHt3Onrjp0xwiTLO3A5FDz8P8Zb_hiTX9tVT5JFDef74sOVyazw7vZoOm5R2kajYZw6QBHjevx_fbeeJTebCYVomRxu2_hRi-_Wu4ggdu | Facebook Facebook 이메일 또는 휴대폰 비밀번호 계정을 잊으셨나요? 새 계정 만들기 일시적으로 차단됨 일시적으로 차단됨 회원님의 이 기능 사용 속도가 너무 빠른 것 같습니다. 이 기능 사용에서 일시적으로 차단되었습니다. Back 한국어 English (US) Tiếng Việt Bahasa Indonesia ภาษาไทย Español 中文(简体) 日本語 Português (Brasil) Français (France) Deutsch 가입하기 로그인 Messenger Facebook Lite 동영상 Meta Pay Meta 스토어 Meta Quest Ray-Ban Meta Meta AI Meta AI 콘텐츠 더 보기 Instagram Threads 투표 정보 센터 개인정보처리방침 개인정보 보호 센터 정보 광고 만들기 페이지 만들기 개발자 채용 정보 쿠키 AdChoices 이용 약관 고객 센터 연락처 업로드 및 비사용자 설정 활동 로그 Meta © 2026 | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/zh_cn/AmazonCloudWatch/latest/monitoring/CloudWatch_MultiDataSources-Custom-Use.html | 使用您的自定义数据来源 - Amazon CloudWatch 使用您的自定义数据来源 - Amazon CloudWatch 文档 Amazon CloudWatch 用户指南 如何将参数传递给您的 Lambda 函数 使用您的自定义数据来源 创建数据来源后,您可以使用它查询和可视化来自该来源的数据,以及设置警报。如果您使用模板创建了自定义数据来源连接器,或者添加了 步骤 3:将资源标签附加到 Lambda 函数 中列出的标签,则可以按照 创建源自另一个数据来源的指标图表 中的步骤进行查询。您也可以使用指标数学函数 LAMBDA 对其进行查询,如下节所述。有关对数据来源的指标创建警报的更多信息,请参阅 基于连接的数据来源创建警报 。本主题介绍如何将 Lambda 函数的参数传递给自定义数据来源。 如何将参数传递给您的 Lambda 函数 要向自定义数据来源传递参数,建议您在查询数据来源时使用 CloudWatch 控制台中的查询构建器。 您还可以通过使用 CloudWatch 指标数学中的新 LAMBDA 表达式,来使用 Lambda 函数检索数据来源中的数据。 LAMBDA("LambdaFunctionName" [, optional-arg]*) optional-arg 最多有 20 个字符串、数字或布尔值。例如, param 、 3.14 或 true 。 注意 CloudWatch 数据来源连接器不支持多行字符串。执行查询,或者使用查询创建警报或控制面板小组件时,每个换行符都会替换为空格。在某些情况下,这可能会导致查询无效。 使用 LAMBDA 指标数学函数时,可以提供函数名称 ( "MyFunction" )。在资源策略允许的情况下,您还可以使用特定版本的函数 ( "MyFunction:22" ) 或使用 Lambda 函数别名 ( "MyFunction:MyAlias" )。您无法使用 * 以下是调用 LAMBDA 函数的一些示例。 LAMBDA("AmazonOpenSearchDataSource", "MyDomain", "some-query") LAMBDA("MyCustomDataSource", true, "fuzzy", 99.9) LAMBDA 指标数学函数会返回一个时间序列列表,该列表可以返回到请求者或与其他指标数学函数结合使用。以下是 LAMBDA 与其他指标数学函数结合使用的示例。 FILL(LAMBDA("AmazonOpenSearchDataSource", "MyDomain", "some-query"), 0) Javascript 在您的浏览器中被禁用或不可用。 要使用 Amazon Web Services 文档,必须启用 Javascript。请参阅浏览器的帮助页面以了解相关说明。 文档惯例 创建自定义数据来源连接器。 删除数据来源连接器 此页面对您有帮助吗?- 是 感谢您对我们工作的肯定! 如果不耽误您的时间,请告诉我们做得好的地方,让我们做得更好。 此页面对您有帮助吗?- 否 感谢您告诉我们本页内容还需要完善。很抱歉让您失望了。 如果不耽误您的时间,请告诉我们如何改进文档。 | 2026-01-13T09:29:26 |
https://th-th.facebook.com/login/?next=https%3A%2F%2Fl.facebook.com%2Fl.php%3Fu%3Dhttps%253A%252F%252Fwww.instagram.com%252F%26amp%253Bh%3DAT2FpiAS5Z4gP0BLmRzfuo4BALg9YPzbZ9ghFRCmHt3Onrjp0xwiTLO3A5FDz8P8Zb_hiTX9tVT5JFDef74sOVyazw7vZoOm5R2kajYZw6QBHjevx_fbeeJTebCYVomRxu2_hRi-_Wu4ggdu | Facebook Facebook อีเมลหรือโทรศัพท์ รหัสผ่าน ลืมบัญชีใช่หรือไม่ สร้างบัญชีใหม่ คุณถูกบล็อกชั่วคราว คุณถูกบล็อกชั่วคราว ดูเหมือนว่าคุณจะใช้คุณสมบัตินี้ในทางที่ผิดโดยการใช้เร็วเกินไป คุณถูกบล็อกจากการใช้โดยชั่วคราว Back ภาษาไทย 한국어 English (US) Tiếng Việt Bahasa Indonesia Español 中文(简体) 日本語 Português (Brasil) Français (France) Deutsch สมัคร เข้าสู่ระบบ Messenger Facebook Lite วิดีโอ Meta Pay Meta Store Meta Quest Ray-Ban Meta Meta AI เนื้อหาเพิ่มเติมจาก Meta AI Instagram Threads ศูนย์ข้อมูลการลงคะแนนเสียง นโยบายความเป็นส่วนตัว ศูนย์ความเป็นส่วนตัว เกี่ยวกับ สร้างโฆษณา สร้างเพจ ผู้พัฒนา ร่วมงานกับ Facebook คุกกี้ ตัวเลือกโฆษณา เงื่อนไข ความช่วยเหลือ การอัพโหลดผู้ติดต่อและผู้ที่ไม่ได้ใช้บริการ การตั้งค่า บันทึกกิจกรรม Meta © 2026 | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/ko_kr/AmazonCloudWatch/latest/monitoring/what-is-network-monitor.html | Network Synthetic Monitor 사용 - Amazon CloudWatch Network Synthetic Monitor 사용 - Amazon CloudWatch 설명서 Amazon CloudWatch 사용자 가이드 주요 기능 용어 및 구성 요소 요구 사항 및 제한 사항 Network Synthetic Monitor 사용 Network Synthetic Monitor를 사용하면 AWS 호스팅된 애플리케이션을 온프레미스 대상에 연결하는 네트워크의 성능을 파악하고 몇 분 내에 네트워크 성능 저하의 원인을 파악할 수 있습니다. Network Synthetic Monitor는 AWS에서 완벽하게 관리되며 모니터링되는 리소스에 대한 별도의 에이전트가 필요하지 않습니다. Network Synthetic Monitor를 사용하여 하이브리드 네트워크 연결의 패킷 손실 및 지연 시간을 시각화하고 알림 및 임곗값을 설정합니다. 그런 다음, 이 정보를 기반으로 최종 사용자의 경험을 개선하기 위한 조치를 취할 수 있습니다. Network Synthetic Monitor는 네트워크 성능에 대한 실시간 인사이트를 원하는 네트워크 사업자와 애플리케이션 개발자를 위한 것입니다. Network Synthetic Monitor의 주요 기능 Network Synthetic Monitor를 사용하면 지속적인 실시간 패킷 손실 및 지연 시간 지표로 변화하는 하이브리드 네트워크 환경을 벤치마킹할 수 있습니다. AWS Direct Connect를 사용하여 연결하면 Network Synthetic Monitor가 Amazon CloudWatch 계정에 쓰는 네트워크 상태 지표(NHI)를 통해 AWS 내의 네트워크 성능 저하를 신속하게 진단하는 데 Network Synthetic Monitor가 도움이 될 수 있습니다. NHI 지표는 네트워크 성능 저하가 AWS 내에 있는지 여부에 대한 확률적 점수 기준 바이너리 값입니다. Network Synthetic Monitor는 모니터링에 대한 완전관리형 에이전트 접근 방식을 제공하므로 VPC나 온프레미스에 에이전트를 설치할 필요가 없습니다. 시작하려면 VPC 서브넷과 온프레미스 IP 주소만 지정하면 됩니다. AWS PrivateLink를 사용하여 VPC 및 Network Synthetic Monitor 리소스 사이에서 프라이빗 연결을 설정할 수 있습니다. 자세한 내용은 인터페이스 VPC 엔드포인트와 함께 CloudWatch, CloudWatch Synthetics 및 CloudWatch Network Monitoring 사용 섹션을 참조하세요. Network Synthetic Monitor는 CloudWatch 지표에 지표를 게시합니다. 대시보드를 생성하여 지표를 확인하고 애플리케이션별 지표에 대해 실행 가능한 임곗값과 경보를 생성할 수도 있습니다. 자세한 내용은 Network Synthetic Monitor의 작동 방식 섹션을 참조하세요. Network Synthetic Monitor 용어 및 구성 요소 프로브 - 프로브는 AWS 호스팅 리소스에서 온프레미스 대상 IP 주소로 전송되는 트래픽입니다. 프로브에서 측정된 Network Synthetic Monitor 지표는 모니터에 구성된 모든 프로브에 대해 CloudWatch 계정에 기록됩니다. 모니터 - 모니터에는 Network Synthetic Monitor 프로브 를 생성한 트래픽에 대한 네트워크 성능 및 기타 상태 정보가 표시됩니다. 모니터 생성의 일부로 프로브를 추가하면 모니터를 사용하여 네트워크 성능 지표 정보를 확인할 수 있습니다. 애플리케이션용 모니터를 생성할 때 AWS 호스팅 리소스를 네트워크 소스로 추가합니다. 그런 다음, Network Synthetic Monitor는 AWS 호스팅 리소스와 대상 IP 주소 사이에 가능한 모든 프로브 목록을 생성합니다. 트래픽을 모니터링할 대상을 선택합니다. AWS 네트워크 소스 - AWS 소스는 VPC 중 하나의 서브넷인 모니터 프로브의 원래 AWS 소스입니다. 대상 - 대상은 AWS 네트워크 소스에 대한 온프레미스 네트워크의 대상입니다. 대상은 온프레미스 IP 주소, 네트워크 프로토콜, 포트 및 네트워크 패킷 크기의 조합입니다. IPv4 주소와 IPv6 주소 모두 지원됩니다. Network Synthetic Monitor 요구 사항 및 제한 사항 다음은 Network Synthetic Monitor에 대한 요구 사항 및 제한 사항을 요약한 것입니다. 특정 할당량(또는 한도)은 Network Synthetic Monitor 섹션을 참조하세요. 모니터 서브넷은 모니터와 동일한 계정에서 소유해야 합니다. Network Synthetic Monitor는 AWS 네트워크 문제가 발생한 경우 자동 네트워크 장애 조치를 제공하지 않습니다. 생성하는 각 프로브에 대해 요금이 부과됩니다. 가격에 대한 자세한 내용은 Network Synthetic Monitor의 요금 을 참조하세요. javascript가 브라우저에서 비활성화되거나 사용이 불가합니다. AWS 설명서를 사용하려면 Javascript가 활성화되어야 합니다. 지침을 보려면 브라우저의 도움말 페이지를 참조하십시오. 문서 규칙 서비스 연결 역할 Network Synthetic Monitor의 작동 방식 이 페이지의 내용이 도움이 되었습니까? - 예 칭찬해 주셔서 감사합니다! 잠깐 시간을 내어 좋았던 부분을 알려 주시면 더 열심히 만들어 보겠습니다. 이 페이지의 내용이 도움이 되었습니까? - 아니요 이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/ja_jp/AmazonCloudWatch/latest/monitoring/what-is-network-monitor.html | Network Synthetic Monitor の使用 - Amazon CloudWatch Network Synthetic Monitor の使用 - Amazon CloudWatch ドキュメント Amazon CloudWatch ユーザーガイド 主な特徴 用語とコンポーネント 要件と制限 Network Synthetic Monitor の使用 Network Synthetic Monitor は、AWS ホストアプリケーションをオンプレミスの宛先に接続するネットワークのパフォーマンスを可視化し、ネットワークパフォーマンスの低下の原因を数分以内に特定できるようにします。Network Synthetic Monitor は AWS によって完全に管理されており、モニタリング対象リソース対して個別のエージェントは必要ありません。Network Synthetic Monitor を使用して、ハイブリッドネットワーク接続のパケット損失とレイテンシーの視覚化、およびアラートとしきい値の設定を行います。その後、この情報に基づいて、エンドユーザーのエクスペリエンスを向上させるためのアクションを実行できます。 Network Synthetic Monitor は、ネットワークのパフォーマンスをリアルタイムで把握しようとするネットワークオペレーターとアプリケーション開発者を対象としています。 Network Synthetic Monitor の主な機能 Network Synthetic Monitor を使用すると、継続的にリアルタイムのパケット損失とレイテンシーのメトリクスを使って、変化するハイブリッドネットワーク環境のベンチマークを行うことができます。 AWS Direct Connect を使用して接続すると、Network Synthetic Monitor が Amazon CloudWatch アカウントに書き込む Network Health Indicator (NHI) を使用して、AWS ネットワーク内のネットワークの低下を迅速に診断することができます。NHI メトリクスはバイナリ値で、ネットワークの低下が AWS 内にあるかどうかに関する確率スコアに基づいています。 Network Synthetic Monitor は、フルマネージド型エージェントアプローチを使用してモニタリングを実現するため、VPC にもオンプレミスにもエージェントをインストールする必要はありません。開始するには、VPC サブネットとオンプレミス IP アドレスを指定するだけです。AWS PrivateLink を使用すると、VPC と Network Synthetic Monitor リソース間のプライベート接続を確立できます。詳細については、「 インターフェイス VPC エンドポイントでの CloudWatch、CloudWatch Synthetics、および CloudWatch Network Monitoring の使用 」を参照してください。 Network Synthetic Monitor は CloudWatch メトリクスにメトリクスを公開します。ダッシュボードを作成して、メトリクスを表示したり、アプリケーションに固有のメトリクスに基づく実用的なしきい値やアラームを作成したりすることもできます。 詳細については、「 Network Synthetic Monitor の仕組み 」を参照してください。 Network Synthetic Monitor の用語とコンポーネント プローブ – プローブは、AWS ホストリソースからオンプレミスの宛先 IP アドレスに送信されるトラフィックです。プローブによって測定された Network Synthetic Monitor メトリクスは、モニターで設定した各プローブの CloudWatch アカウントに書き込まれます。 モニター – モニターは、作成した Network Synthetic Monitor プローブ が測定するトラフィックのネットワークパフォーマンスやその他のヘルス情報を表示します。モニターの作成の一環としてプローブを追加し、モニターを使用してネットワークパフォーマンスメトリクス情報を表示できます。アプリケーションのモニタを作成するときは、ネットワークソースとして AWS ホストリソースを追加します。Network Synthetic Monitor はその後、AWS ホストリソースと宛先 IP アドレスの間で組み合わせ可能なすべてのプローブのリストを作成します。トラフィックをモニターする送信先を選択します。 AWS ネットワークソース — AWS ネットワークソースは、モニタプローブの送信元の AWS ソースで、いずれかの VPC 内のサブネットになります。 宛先 — 宛先は、オンプレミスネットワーク内にある、AWS ネットワークソースのターゲットです。宛先は、オンプレミスの IP アドレス、ネットワークプロトコル、ポート、およびネットワークパケットサイズで構成されます。IPv4 と IPv6 アドレスの両方がサポートされます。 Network Synthetic Monitor の要件と制限 以下に、Network Synthetic Monitor の要件と制限をまとめています。特定のクォータ (または制限) については、「 Network Synthetic Monitor 」を参照してください。 モニターサブネットは、モニターと同じアカウントが所有している必要があります。 Network Synthetic Monitor は、AWS ネットワークに問題が発生した場合に、自動ネットワークフェイルオーバーを提供しません。 作成するプローブごとに料金が発生します。料金の詳細については、「 Network Synthetic Monitor の料金 」を参照してください。 ブラウザで JavaScript が無効になっているか、使用できません。 AWS ドキュメントを使用するには、JavaScript を有効にする必要があります。手順については、使用するブラウザのヘルプページを参照してください。 ドキュメントの表記規則 サービスリンクロール Network Synthetic Monitor の仕組み このページは役に立ちましたか? - はい ページが役に立ったことをお知らせいただき、ありがとうございます。 お時間がある場合は、何が良かったかお知らせください。今後の参考にさせていただきます。 このページは役に立ちましたか? - いいえ このページは修正が必要なことをお知らせいただき、ありがとうございます。ご期待に沿うことができず申し訳ありません。 お時間がある場合は、ドキュメントを改善する方法についてお知らせください。 | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/CWL_QuerySyntax-Anomaly.html | anomaly - Amazon CloudWatch Logs anomaly - Amazon CloudWatch Logs Documentation Amazon CloudWatch User Guide anomaly Use anomaly to automatically identify unusual patterns and potential issues within your log data using machine learning. The anomaly command extends the existing pattern functionality and leverages advanced analytics to help identify potential anomalies in log data. You can use anomaly to reduce the time it takes to identify and resolve operational issues by automatically surfacing unusual patterns or behaviors in your logs. The anomaly command works with the pattern command to first identify log patterns, then detect anomalies within those patterns. You can also combine anomaly with the filter or sort commands to focus anomaly detection on specific subsets of your data. Anomaly Command Input The anomaly command is typically used after the pattern command to analyze the patterns identified in your log data. The command does not require additional parameters and analyzes the output from preceding commands in your query. Types of Anomalies Identified The anomaly command identifies five distinct types of anomalies: Pattern Frequency Anomalies : Unusual frequencies of specific log patterns, such as when an application starts generating more error messages than usual. New Pattern Anomalies : Previously unseen log patterns that may indicate new types of errors or messages appearing in your logs. Token Variation Anomalies : Unexpected changes in log message contents that may indicate unusual variations in expected log formats. Numerical Token Anomalies : Unusual changes in numerical values within logs that can help detect potential performance issues or unexpected metric variations. HTTP Error Code Anomalies : Patterns related to HTTP error responses, particularly useful when monitoring web applications and APIs. Anomaly Command Output The anomaly command preserves all fields from the input data and adds anomaly detection results to help identify unusual patterns in your log data. Examples The following command identifies patterns in your log data and then detects anomalies within those patterns: fields @timestamp, @message | pattern @message | anomaly The anomaly command can be used with filtering to focus on specific log types: fields @timestamp, @message | filter @type = "REPORT" | pattern @message | anomaly The anomaly command can be combined with sorting to organize results: fields @timestamp, @message | filter @type = "ERROR" | pattern @message | anomaly | sort @timestamp desc Javascript is disabled or is unavailable in your browser. To use the Amazon Web Services Documentation, Javascript must be enabled. Please refer to your browser's Help pages for instructions. Document Conventions Logs Insights QL commands supported in log classes display Did this page help you? - Yes Thanks for letting us know we're doing a good job! If you've got a moment, please tell us what we did right so we can do more of it. Did this page help you? - No Thanks for letting us know this page needs work. We're sorry we let you down. If you've got a moment, please tell us how we can make the documentation better. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/ko_kr/AmazonCloudWatch/latest/monitoring/what-is-network-monitor.html | Network Synthetic Monitor 사용 - Amazon CloudWatch Network Synthetic Monitor 사용 - Amazon CloudWatch 설명서 Amazon CloudWatch 사용자 가이드 주요 기능 용어 및 구성 요소 요구 사항 및 제한 사항 Network Synthetic Monitor 사용 Network Synthetic Monitor를 사용하면 AWS 호스팅된 애플리케이션을 온프레미스 대상에 연결하는 네트워크의 성능을 파악하고 몇 분 내에 네트워크 성능 저하의 원인을 파악할 수 있습니다. Network Synthetic Monitor는 AWS에서 완벽하게 관리되며 모니터링되는 리소스에 대한 별도의 에이전트가 필요하지 않습니다. Network Synthetic Monitor를 사용하여 하이브리드 네트워크 연결의 패킷 손실 및 지연 시간을 시각화하고 알림 및 임곗값을 설정합니다. 그런 다음, 이 정보를 기반으로 최종 사용자의 경험을 개선하기 위한 조치를 취할 수 있습니다. Network Synthetic Monitor는 네트워크 성능에 대한 실시간 인사이트를 원하는 네트워크 사업자와 애플리케이션 개발자를 위한 것입니다. Network Synthetic Monitor의 주요 기능 Network Synthetic Monitor를 사용하면 지속적인 실시간 패킷 손실 및 지연 시간 지표로 변화하는 하이브리드 네트워크 환경을 벤치마킹할 수 있습니다. AWS Direct Connect를 사용하여 연결하면 Network Synthetic Monitor가 Amazon CloudWatch 계정에 쓰는 네트워크 상태 지표(NHI)를 통해 AWS 내의 네트워크 성능 저하를 신속하게 진단하는 데 Network Synthetic Monitor가 도움이 될 수 있습니다. NHI 지표는 네트워크 성능 저하가 AWS 내에 있는지 여부에 대한 확률적 점수 기준 바이너리 값입니다. Network Synthetic Monitor는 모니터링에 대한 완전관리형 에이전트 접근 방식을 제공하므로 VPC나 온프레미스에 에이전트를 설치할 필요가 없습니다. 시작하려면 VPC 서브넷과 온프레미스 IP 주소만 지정하면 됩니다. AWS PrivateLink를 사용하여 VPC 및 Network Synthetic Monitor 리소스 사이에서 프라이빗 연결을 설정할 수 있습니다. 자세한 내용은 인터페이스 VPC 엔드포인트와 함께 CloudWatch, CloudWatch Synthetics 및 CloudWatch Network Monitoring 사용 섹션을 참조하세요. Network Synthetic Monitor는 CloudWatch 지표에 지표를 게시합니다. 대시보드를 생성하여 지표를 확인하고 애플리케이션별 지표에 대해 실행 가능한 임곗값과 경보를 생성할 수도 있습니다. 자세한 내용은 Network Synthetic Monitor의 작동 방식 섹션을 참조하세요. Network Synthetic Monitor 용어 및 구성 요소 프로브 - 프로브는 AWS 호스팅 리소스에서 온프레미스 대상 IP 주소로 전송되는 트래픽입니다. 프로브에서 측정된 Network Synthetic Monitor 지표는 모니터에 구성된 모든 프로브에 대해 CloudWatch 계정에 기록됩니다. 모니터 - 모니터에는 Network Synthetic Monitor 프로브 를 생성한 트래픽에 대한 네트워크 성능 및 기타 상태 정보가 표시됩니다. 모니터 생성의 일부로 프로브를 추가하면 모니터를 사용하여 네트워크 성능 지표 정보를 확인할 수 있습니다. 애플리케이션용 모니터를 생성할 때 AWS 호스팅 리소스를 네트워크 소스로 추가합니다. 그런 다음, Network Synthetic Monitor는 AWS 호스팅 리소스와 대상 IP 주소 사이에 가능한 모든 프로브 목록을 생성합니다. 트래픽을 모니터링할 대상을 선택합니다. AWS 네트워크 소스 - AWS 소스는 VPC 중 하나의 서브넷인 모니터 프로브의 원래 AWS 소스입니다. 대상 - 대상은 AWS 네트워크 소스에 대한 온프레미스 네트워크의 대상입니다. 대상은 온프레미스 IP 주소, 네트워크 프로토콜, 포트 및 네트워크 패킷 크기의 조합입니다. IPv4 주소와 IPv6 주소 모두 지원됩니다. Network Synthetic Monitor 요구 사항 및 제한 사항 다음은 Network Synthetic Monitor에 대한 요구 사항 및 제한 사항을 요약한 것입니다. 특정 할당량(또는 한도)은 Network Synthetic Monitor 섹션을 참조하세요. 모니터 서브넷은 모니터와 동일한 계정에서 소유해야 합니다. Network Synthetic Monitor는 AWS 네트워크 문제가 발생한 경우 자동 네트워크 장애 조치를 제공하지 않습니다. 생성하는 각 프로브에 대해 요금이 부과됩니다. 가격에 대한 자세한 내용은 Network Synthetic Monitor의 요금 을 참조하세요. javascript가 브라우저에서 비활성화되거나 사용이 불가합니다. AWS 설명서를 사용하려면 Javascript가 활성화되어야 합니다. 지침을 보려면 브라우저의 도움말 페이지를 참조하십시오. 문서 규칙 서비스 연결 역할 Network Synthetic Monitor의 작동 방식 이 페이지의 내용이 도움이 되었습니까? - 예 칭찬해 주셔서 감사합니다! 잠깐 시간을 내어 좋았던 부분을 알려 주시면 더 열심히 만들어 보겠습니다. 이 페이지의 내용이 도움이 되었습니까? - 아니요 이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/mask-sensitive-log-data.html | Help protect sensitive log data with masking - Amazon CloudWatch Logs Help protect sensitive log data with masking - Amazon CloudWatch Logs Documentation Amazon CloudWatch User Guide Help protect sensitive log data with masking You can help safeguard sensitive data that's ingested by CloudWatch Logs by using log group data protection policies . These policies let you audit and mask sensitive data that appears in log events ingested by the log groups in your account. When you create a data protection policy, then by default, sensitive data that matches the data identifiers you've selected is masked at all egress points, including CloudWatch Logs Insights, metric filters, and subscription filters. Only users who have the logs:Unmask IAM permission can view unmasked data. You can create a data protection policy for all log groups in your account, and you can also create a data protection policies for individual log groups. When you create a policy for your entire account, it applies to both existing log groups and log groups that are created in the future. If you create a data protection policy for your entire account and you also create a policy for a single log group, both policies apply to that log group. All managed data identifiers that are specified in either policy are audited and masked in that log group. Note Masking sensitive data is supported only for log groups in the Standard log class. If you create a data protection policy for all log groups in your account, it applies only to log groups in the Standard log class. For more information about log classes, see Log classes . Each log group can have only one log group-level data protection policy, but that policy can specify many managed data identifiers to audit and mask. The limit for a data protection policy is 30,720 characters. Important Sensitive data is detected and masked when it is ingested into the log group. When you set a data protection policy, log events ingested to the log group before that time are not masked. CloudWatch Logs supports many managed data identifiers , which offer preconfigured data types you can select to protect financial data, personal health information (PHI), and personally identifiable information (PII). CloudWatch Logs data protection allows you to leverage pattern matching and machine learning models to detect sensitive data. For some types of managed data identifiers, the detection depends on also finding certain keywords in proximity with the sensitive data. You can also use custom data identifiers to create data identifiers tailored to your specific use case. A metric is emitted to CloudWatch when sensitive data is detected that matches the data identifiers you select. This is the LogEventsWithFindings metric and it is emitted in the AWS/Logs namespace. You can use this metric to create CloudWatch alarms, and you can visualize it in graphs and dashboards. Metrics emitted by data protection are vended metrics and are free of charge. For more information about metrics that CloudWatch Logs sends to CloudWatch, see Monitoring with CloudWatch metrics . Each managed data identifier is designed to detect a specific type of sensitive data, such as credit card numbers, AWS secret access keys, or passport numbers for a particular country or region. When you create a data protection policy, you can configure it to use these identifiers to analyze logs ingested by the log group, and take actions when they are detected. CloudWatch Logs data protection can detect the following categories of sensitive data by using managed data identifiers: Credentials, such as private keys or AWS secret access keys Financial information, such as credit card numbers Personally Identifiable Information (PII) such as driver’s licenses or social security numbers Protected Health Information (PHI) such as health insurance or medical identification numbers Device identifiers, such as IP addresses or MAC addresses For details about the types of data that you can protect, see Types of data that you can protect . Contents Understanding data protection policies What are data protection policies? How is the data protection policy structured? JSON properties for the data protection policy JSON properties for a policy statement JSON properties for a policy statement operation IAM permissions required to create or work with a data protection policy Permissions required for account-level data protection policies Permissions required for data protection policies for a single log group Sample data protection policy Create an account-wide data protection policy Console AWS CLI Data protection policy syntax for AWS CLI or API operations Create a data protection policy for a single log group Console AWS CLI Data protection policy syntax for AWS CLI or API operations View unmasked data Audit findings reports Required key policy to send audit findings to an bucket protected by AWS KMS Types of data that you can protect CloudWatch Logs managed data identifiers for sensitive data types Credentials Data identifier ARNs for credential data types Device identifiers Data identifier ARNs for device data types Financial information Data identifier ARNs for financial data types Protected health information (PHI) Data identifier ARNs for protected health information data types (PHI) Personally identifiable information (PII) Keywords for driver’s license identification numbers Keywords for national identification numbers Keywords for passport numbers Keywords for taxpayer identification and reference numbers Data identifier ARNs for personally identifiable information (PII) Custom data identifiers What are custom data identifiers? Custom data identifier constraints Using custom data identifiers in the console Using custom data identifiers in your data protection policy Javascript is disabled or is unavailable in your browser. To use the Amazon Web Services Documentation, Javascript must be enabled. Please refer to your browser's Help pages for instructions. Document Conventions Encrypt log data using AWS KMS Understanding data protection policies Did this page help you? - Yes Thanks for letting us know we're doing a good job! If you've got a moment, please tell us what we did right so we can do more of it. Did this page help you? - No Thanks for letting us know this page needs work. We're sorry we let you down. If you've got a moment, please tell us how we can make the documentation better. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/de_de/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html#cloudwatch-agent-overview | Was ist Amazon CloudWatch? - Amazon CloudWatch Was ist Amazon CloudWatch? - Amazon CloudWatch Dokumentation Amazon CloudWatch Benutzer-Leitfaden Betriebliche Transparenz mit Metriken, Alarmen und Dashboards Application Performance Monitoring (APM) Überwachung der Infrastruktur Protokolle sammeln, speichern und abfragen Verwenden Sie den CloudWatch Agenten, um Metriken, Protokolle und Traces von EC2 Amazon-Flotten zu sammeln Kontoübergreifende Überwachung Lösungskatalog CloudWatch Netzwerk-Überwachung Fakturierung und Kosten Ressourcen Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich. Was ist Amazon CloudWatch? Amazon CloudWatch überwacht Ihre Amazon Web Services (AWS) -Ressourcen und die Anwendungen, auf denen Sie laufen, AWS in Echtzeit und bietet zahlreiche Tools, mit denen Sie die Leistung, den Betriebszustand und die Ressourcennutzung Ihrer Anwendungen systemweit beobachten können. Themen Betriebliche Transparenz mit Metriken, Alarmen und Dashboards Application Performance Monitoring (APM) Überwachung der Infrastruktur Protokolle sammeln, speichern und abfragen Verwenden Sie den CloudWatch Agenten, um Metriken, Protokolle und Traces von EC2 Amazon-Flotten zu sammeln Kontoübergreifende Überwachung Lösungskatalog Netzwerk- und Internetüberwachung Fakturierung und Kosten CloudWatch Amazon-Ressourcen Betriebliche Transparenz mit Metriken, Alarmen und Dashboards Metriken erfassen und verfolgen wichtige Leistungsdaten in benutzerdefinierten Intervallen. Viele AWS Dienste melden Metriken automatisch an CloudWatch, und Sie können auch benutzerdefinierte Messwerte in CloudWatch Ihren Anwendungen veröffentlichen . Dashboards bieten eine einheitliche Ansicht Ihrer Ressourcen und Anwendungen mit Visualisierungen Ihrer Metriken und Protokolle an einem einzigen Ort. Sie können Dashboards auch konten- und regionsübergreifend teilen , um den Überblick über Ihre Abläufe zu verbessern. CloudWatch bietet kuratierte automatische Dashboards für viele AWS Dienste, sodass Sie sie nicht selbst erstellen müssen. Sie können Alarme einrichten, die Messwerte kontinuierlich anhand benutzerdefinierter CloudWatch Schwellenwerte überwachen. Sie können Sie automatisch vor Überschreitungen der Schwellenwerte warnen und auch automatisch auf Änderungen im Verhalten Ihrer Ressourcen reagieren, indem sie automatisierte Aktionen auslösen . Application Performance Monitoring (APM) Mit Application Signals können Sie die wichtigsten Leistungsindikatoren Ihrer Anwendungen wie Latenz, Fehlerraten und Anforderungsraten automatisch erkennen und überwachen, ohne dass manuelle Instrumentierung oder Codeänderungen erforderlich sind. Application Signals bietet auch kuratierte Dashboards, sodass Sie mit einem Minimum an Einrichtung mit der Überwachung beginnen können. CloudWatch Synthetics ergänzt dies, indem es Ihnen ermöglicht, Ihre Endgeräte proaktiv zu überwachen und APIs konfigurierbare Skripts, sogenannte Canaries , zu verwenden, die das Benutzerverhalten simulieren und Sie auf Verfügbarkeitsprobleme oder Leistungseinbußen aufmerksam machen, bevor sie sich auf echte Benutzer auswirken. Sie können CloudWatch RUM auch verwenden, um Leistungsdaten aus echten Benutzersitzungen zu sammeln. Verwenden Sie Service Level Objectives (SLOs) , CloudWatch um spezifische Zuverlässigkeitsziele für Ihre Anwendungen zu definieren, nachzuverfolgen und entsprechende Warnmeldungen zu erstellen. So können Sie Ihre Verpflichtungen zur Servicequalität einhalten, indem Sie Fehlerbudgets festlegen und die SLO-Einhaltung im Laufe der Zeit überwachen. Überwachung der Infrastruktur Viele AWS Dienste senden grundlegende Kennzahlen automatisch und CloudWatch kostenlos an. Services, die Metriken senden, sind hier aufgelistet . Darüber hinaus CloudWatch bietet es zusätzliche Überwachungsfunktionen für mehrere wichtige Teile der AWS Infrastruktur: Mit Database Insights können Sie die Leistungsmetriken von Datenbanken in Echtzeit überwachen, die Leistung von SQL-Abfragen analysieren und Probleme beim Laden von Datenbanken für AWS -Datenbankservices beheben. Lambda Insights bietet Metriken auf Systemebene für Lambda-Funktionen, darunter die Überwachung der Speicher- und CPU-Auslastung sowie die Erkennung und Analyse von Kaltstarts. Mit Container Insights können Sie Metriken aus containerisierten Anwendungen auf Amazon ECS-Clustern, Amazon EKS-Clustern und selbstverwalteten Kubernetes-Clustern auf Amazon sammeln und analysieren. EC2 Protokolle sammeln, speichern und abfragen CloudWatch Logs bietet eine Reihe leistungsstarker Funktionen für eine umfassende Protokollverwaltung und -analyse. Von AWS Diensten und benutzerdefinierten Anwendungen aufgenommene Protokolle werden zur einfachen Organisation in Protokollgruppen und Streams gespeichert. Verwenden Sie CloudWatch Logs Insights , um interaktive, schnelle Abfragen Ihrer Protokolldaten durchzuführen. Sie haben die Wahl zwischen drei Abfragesprachen, darunter SQL und PPL. Verwenden Sie die Erkennung von Protokollausreißern , um ungewöhnliche Muster in Protokollereignissen in einer Protokollgruppe zu finden, die auf Probleme hinweisen können. Erstellen Sie Metrikfilter , um numerische Werte aus Protokollen zu extrahieren und CloudWatch Metriken zu generieren, die Sie für Benachrichtigungen und Dashboards verwenden können. Richten Sie Abonnementfilter ein, um Protokolle in Echtzeit zu verarbeiten und zu analysieren oder sie an andere Services wie Amazon S3 oder Firehose weiterzuleiten. Verwenden Sie den CloudWatch Agenten, um Metriken, Protokolle und Traces von EC2 Amazon-Flotten zu sammeln Verwenden Sie den CloudWatch Agenten , um detaillierte Systemmetriken zu Prozessen, CPU, Arbeitsspeicher, Festplattennutzung und Netzwerkleistung von Ihren Flotten von EC2 Amazon-Instances und lokalen Servern zu sammeln. Sie können auch benutzerdefinierte Metriken aus Ihren Anwendungen sammeln und überwachen, Protokolle aus mehreren Quellen zusammenfassen und Alarme auf der Grundlage der gesammelten Daten konfigurieren. Sie können den Agenten auch verwenden, um GPU-Metriken zu sammeln. Der Agent unterstützt sowohl Windows- als auch Linux-Betriebssysteme und kann zur zentralen Konfigurationsverwaltung in Systems Manager integriert werden. Kontoübergreifende Überwachung CloudWatch Mit der kontenübergreifenden Observability können Sie ein zentrales Überwachungskonto einrichten, um Anwendungen zu überwachen und Fehler zu beheben, die sich über mehrere Konten erstrecken. Über das zentrale Konto können Sie Metriken, Protokolle und Ablaufverfolgungen von Quellkonten in Ihrer gesamten Organisation einsehen. Dieser zentralisierte Ansatz ermöglicht es Ihnen, kontenübergreifende Dashboards zu erstellen, Alarme einzurichten, die Metriken mehrerer Konten zu überwachen, und Ursachenanalysen über Kontogrenzen hinweg durchzuführen. Mit der CloudWatch kontenübergreifenden Observability können Sie Quellkonten entweder einzeln oder automatisch miteinander verknüpfen. AWS Organizations Lösungskatalog CloudWatch bietet einen Katalog leicht verfügbarer Konfigurationen, mit denen Sie schnell die Überwachung verschiedener AWS Dienste und gängiger Workloads wie Java Virtual Machines (JVM), NVIDIA GPU, Apache Kafka, Apache Tomcat und NGINX implementieren können. Diese Lösungen bieten gezielte Anleitungen, einschließlich Anweisungen zur Installation und Konfiguration des CloudWatch Agenten, zur Bereitstellung vordefinierter benutzerdefinierter Dashboards und zur Einrichtung entsprechender Alarme. Netzwerk- und Internetüberwachung CloudWatch bietet umfassende Netzwerk- und Internetüberwachungsfunktionen über CloudWatch Network Monitoring. Internet Monitor verwendet AWS globale Netzwerkdaten, um die Internetleistung und Verfügbarkeit zwischen Ihren Anwendungen und Endbenutzern zu analysieren. Mit einem Internetmonitor können Sie erhöhte Latenzzeiten oder regionale Störungen, die sich auf Ihre Kunden auswirken, erkennen oder Benachrichtigungen erhalten. Internetmonitore analysieren Ihre VPC-Flussprotokolle, um automatisierte Einblicke in die Muster und die Leistung des Netzwerkverkehrs zu erhalten. Sie können ebenfalls Vorschläge dazu erhalten, wie Sie die Anwendungsleistung für Ihre Clients optimieren können. Network Flow Monitor zeigt Informationen zur Netzwerkleistung an, die von einfachen Softwareagenten gesammelt wurden, die Sie auf Ihren Instances installieren. Mithilfe eines Flow Monitors können Sie schnell den Paketverlust und die Latenz Ihrer Netzwerkverbindungen über einen von Ihnen festgelegten Zeitraum visualisieren. Jeder Monitor generiert außerdem einen Netzwerkstatusindikator (Network Health Indicator, NHI), der Ihnen mitteilt, ob während des von Ihnen untersuchten Zeitraums AWS Netzwerkprobleme bei den Netzwerkströmen aufgetreten sind, die von Ihrem Monitor aufgezeichnet wurden. Wenn Sie eine Verbindung herstellen Direct Connect, können Sie synthetische Monitore in Network Synthetic Monitor verwenden, um die Netzwerkkonnektivität proaktiv zu überwachen, indem Sie synthetische Tests zwischen einer VPC und lokalen Endpunkten ausführen. Wenn Sie einen synthetischen Monitor erstellen, geben Sie Tests an, indem Sie ein VPC-Subnetz und lokale IP-Adressen angeben. AWS erstellt und verwaltet die Infrastruktur im Hintergrund, die für die Durchführung von Messungen der Umlaufzeit und des Paketverlusts mit den Sonden erforderlich ist. Diese Tests erkennen Probleme mit Konnektivität, DNS und Latenz, bevor sie sich auf Ihre Anwendungen auswirken, sodass Sie Maßnahmen ergreifen können, um die Erfahrung Ihrer Endbenutzer zu verbessern. Fakturierung und Kosten Vollständige Informationen zu den CloudWatch Preisen finden Sie unter CloudWatch Amazon-Preise . Informationen, die Ihnen helfen können, Ihre Rechnung zu analysieren und möglicherweise Kosten zu optimieren und zu senken, finden Sie unter CloudWatch Kosten analysieren, optimieren und reduzieren . CloudWatch Amazon-Ressourcen Die folgenden verwandten Ressourcen bieten Ihnen nützliche Informationen für die Arbeit mit diesem Service. Ressource Description Amazon CloudWatch FAQs Die Webseite „Häufig gestellte Fragen” deckt alle wichtigsten Fragen ab, die Entwickler zu diesem Produkt gestellt haben. AWS Entwicklerzentrum Ein zentraler Ausgangspunkt, um Dokumentation, Codebeispiele, Versionshinweise und andere Informationen zu finden, mit denen Sie innovative Anwendungen entwickeln können AWS. AWS-Managementkonsole Mit der Konsole können Sie die meisten Funktionen von Amazon CloudWatch und verschiedenen anderen AWS Angeboten ohne Programmierung ausführen. CloudWatch Amazon-Diskussionsforen Community-basiertes Forum für Entwickler zur Diskussion technischer Fragen zu Amazon. CloudWatch AWS Support Die zentrale Anlaufstelle für die Erstellung und Verwaltung Ihrer AWS Support Fälle. Enthält auch Links zu anderen hilfreichen Ressourcen wie Foren, technischen InformationenFAQs, Servicestatus und AWS Trusted Advisor. CloudWatch Amazon-Produktinformationen Die primäre Webseite für Informationen über Amazon CloudWatch. Kontakt Eine zentrale Anlaufstelle für Anfragen zu AWS Abrechnung, Konto, Veranstaltungen, Missbrauch usw. JavaScript ist in Ihrem Browser nicht verfügbar oder deaktiviert. Zur Nutzung der AWS-Dokumentation muss JavaScript aktiviert sein. Weitere Informationen finden auf den Hilfe-Seiten Ihres Browsers. Dokumentkonventionen Einrichten Hat Ihnen diese Seite geholfen? – Ja Vielen Dank, dass Sie uns mitgeteilt haben, dass wir gute Arbeit geleistet haben! Würden Sie sich einen Moment Zeit nehmen, um uns mitzuteilen, was wir richtig gemacht haben, damit wir noch besser werden? Hat Ihnen diese Seite geholfen? – Nein Vielen Dank, dass Sie uns mitgeteilt haben, dass diese Seite überarbeitet werden muss. Es tut uns Leid, dass wir Ihnen nicht weiterhelfen konnten. Würden Sie sich einen Moment Zeit nehmen, um uns mitzuteilen, wie wir die Dokumentation verbessern können? | 2026-01-13T09:29:26 |
https://www.linkedin.com/products/categories/network-monitoring-software | Best Network Monitoring Software | Products | LinkedIn Skip to main content LinkedIn Expand search This button displays the currently selected search type. When expanded it provides a list of search options that will switch the search inputs to match the current selection. Jobs People Learning Clear text Clear text Clear text Clear text Clear text Join now Sign in Clear text Used by Used by Chief Technology Officer (18) Network Administrator (17) Network Engineer (16) Network Specialist (16) Chief Information Security Officer (13) See all products Find top products in Network Monitoring Software category Software used to measure the performance of computer networks. - Track metrics such as speed, latency, availability, response time, and reliability - Use dashboards and visualizations to monitor real-time performance against historical data - Create baseline for performance and receive notifications of variations, failures, and timeouts - Map and monitor networks with failover systems and solutions to address performance issues 147 results NMS Network Monitoring Software by Parsons Corporation The Parsons supported Network Monitoring System (NMS) is a results-oriented, service-based, network anomaly detection tool that solves radio operators’ biggest stability challenge — identifying and resolving issues that are tied to backhaul. Our Land Mobile Radio (LMR) Backhaul Solution makes it easy to identify and resolve issues quickly, reducing the time to resolve issues and improving the overall reliability and performance of your LMR network. View product Network Operations Center (NOC) Network Monitoring Software by OpticoreIT We monitor and run your data network daily with agreed deliverables and service metrics. Applying industry best practices, we give you a robust, reliable and deterministic network managed by a responsive, proactive and skilled team of Opticore engineers. There are three components to the Network Managed Service. Our People Pro-active monitoring by the team of highly skilled and qualified network engineers in our Network Operations Centre (NOC). Our Platform Monitoring through our bespoke Opticore Hosted Management Platform (OHMP), maintained and updated by our NOC team. Our Process Opticore’s service delivery team follow the best practice principles of the ITIL library to ensure that we offer the excellent service to our clients. View product Arbor Sightline Network Monitoring Software by NETSCOUT The network is the business. Operators must optimize resources, reduce service availability threats and thus save money. Arbor Sightline provides robust capabilities from network-wide capacity planning, to identifying and managing the mitigation of threats to the network. This pervasive network data can also be leveraged to make routing and peering design decisions, lower transit costs, eliminate network threats and provide your business with new revenue-generating services. Arbor’s DDoS attack protection solutions are based upon industry-leading technology. NETSCOUT offers a comprehensive portfolio of fully integrated, in‑cloud and on-premise DDoS protection products and services; all backed by continuous global threat intelligence. View product TEMS™ Suite Network Monitoring Software by Infovista TEMS™ Suite is the comprehensive solution for mobile network testing designed to meet the demands of next-generation networks. TEMS Suite empowers you to deliver next-level experience and achieve faster time-to-market for your 5G network. Key Features: 🔹 Efficient Network Validation 🔹 Comprehensive Network Testing 🔹 OTT Voice and Application Testing 🔹 Efficient Competitor Benchmarking 🔹 Proactive Network Monitoring 🔹 Trusted and Recognized Discover the TEMS™ Suite: 🔹 TEMS™ Investigation 🔹 TEMS™ Discovery 🔹 TEMS™ Paragon 🔹 TEMS™ Pocket 🔹 TEMS™ Cloud 🔹 TEMS™ Sense Optimize your mobile network performance, enhance subscriber experience, and achieve your business objectives empowered by TEMS Suite. Visit our official product page to learn more and get in touch. View product Progress Flowmon Network Monitoring Software by Progress Software Flowmon Networks empowers businesses to manage and secure their computer networks confidently. Through our high performance network monitoring technology and lean-forward behavior analytics, IT pros worldwide benefit from absolute network traffic visibility to enhance network & application performance and deal with modern cyber threats. Driven by a passion for technology, we are leading the way of NetFlow/IPFIX network monitoring that is high performing, scalable and easy to use. The world’s largest businesses, internet service providers, government entities or even small and midsize companies rely on our solutions to take control over their networks, keep order and overcome uncertainty. With our solution recognized by Gartner, we are one of the fastest growing companies in the industry. View product Find products trusted by professionals in your network See which products are used by connections in your network and those that share similar job titles Sign in to view full insights ASM Network Monitoring Software by Red Sift Red Sift ASM (Attack Surface Management) continuously discovers, inventories and helps manage your business’s critical external-facing and cloud assets. Complete visibility Get a view into your entire attack surface – including assets you didn't know existed. Fix proactively Be aware of and remediate configuration risks before bad actors can take advantage. Reduce premiums Solve problems before they are visible to your insurer and reduce cyber insurance premiums. View product ONES (Open Networking Enterprise Suite) Network Monitoring Software by Aviz Networks ONES provides deep network visibility, with over 200 metrics, monitoring performance and system health across any ASIC, any switch, all major NOSes and versions of SONiC - empowering you to quickly determine exactly which part of your network is causing an issue and fix it fast. View product I-MAP Network Monitoring Software by ITSS As global transactions continue to surge and business objectives become more complex, the ITSS Monitoring and Analytical Platform (IMAP) offers a comprehensive solution for maximizing operational efficiency. Developed by a team of seasoned Transact experts and performance architects, IMAP is an enterprise-class monitoring tool that provides tailored insights for managing the entire Temenos ecosystem and other enterprise systems. View product Auvik Network Management (ANM) Network Monitoring Software by Auvik Auvik's cloud-based network management software helps IT departments and MSPs gain complete visibility and control over their networks — effortlessly. Within an hour of setup, you’ll have an automatically generated map of your network, complete inventory details on every device, and alerts tuned to industry best practices. Whether you manage one site or hundreds, Auvik makes it easy to monitor performance, analyze traffic, maintain documentation, identify and resolve problems faster, and boost productivity. View product Qoli Network Monitoring Software by Snovasys Software Solutions Ltd Qoli.ai is an advanced mobile monitoring application designed for both businesses and personal users. It provides real-time tracking, productivity insights, and security features to ensure efficient management of employees, devices, or family members. View product See more How it works Explore Discover the best product for your need from a growing catalog of 25,000 products and categories trusted by LinkedIn professionals Learn Evaluate new tools, explore trending products in your industry and see who in your network is skilled in the product Grow Join communities of product users to learn best practices, celebrate your progress and accelerate your career LinkedIn © 2026 About Accessibility User Agreement Privacy Policy Cookie Policy Copyright Policy Brand Policy Guest Controls Community Guidelines English Language | 2026-01-13T09:29:26 |
https://foundryco.com/terms-of-service-agreement/ | Terms of Service for Foundry Platform & Products | Foundry Skip to content Search Contact us Translation available Select an experience Japan Global Search for: Search Brands CIO CSO InfoWorld Network World Computerworld Macworld PCWorld Tech Advisor TechHive ChannelWorld Specialty brands CIO100 CSO50 All brands Audiences Artificial intelligence Cloud Security Hardware Software All audiences Solutions Ads Audiences Lead gen Intent data Brand experiences Interactive storytelling Events Partner marketing Content creation Affiliate marketing All solutions Research Technology insights AI Priorities CIO Tech Priorities Cloud Computing Security Priorities State of the CIO Buying process Customer Engagement Role & Influence Partner Marketing All research Resources Resources Tools for marketers Blog Videos Customer stories Developer portal The Intersection newsletter All resources About us Press Awards Work here Privacy / Compliance Licensing About Us Brands CIO CSO InfoWorld Network World Computerworld Macworld PCWorld Tech Advisor TechHive ChannelWorld Specialty brands CIO 100 CSO50 All brands Audiences Artificial intelligence Cloud Security Hardware Software All audiences Solutions Ads Lead gen Intent data Brand experiences Interactive storytelling Events Partner marketing Content creation Affiliate marketing All solutions Research Technology insights AI Priorities CIO Tech Priorities Cloud Computing Security Priorities State of the CIO Buying process Customer Engagement Role & Influence Partner Marketing All research Resources Resources Tools for marketers Blog Videos Customer stories Developer Portal The Intersection newsletter All Resources About us Press Awards Work here Privacy / Compliance Licensing About Us Contact Log in Edition - Select an experience Japan Global TERMS OF SERVICE FOR FOUNDRY Last Updated: October 31, 2025 IMPORTANT: THESE TERMS CONTAIN AN ARBITRATION AGREEMENT AND CLASS ACTION WAIVER FOR USERS IN CERTAIN JURISDICTIONS. PLEASE READ SECTION 18. ACCEPTANCE OF TERMS By accessing, registering for, or using any portion of the Services, or by clicking or checking a box indicating your acceptance, you acknowledge that you have read, understood, and agree to be bound by these Terms of Service (“TOS” or “Terms”) and any policies, guidelines, or addenda that Foundry expressly incorporates by reference. If you are entering into these TOS on behalf of a company or other legal entity, you represent and warrant that you have the authority to bind that entity, its affiliates, and all users who access the Services through your account to these TOS, in which case the terms “Customer,” “you,” and “your” refer to such entity, its affiliates, and users. If you do not have such authority or if you do not agree with these TOS, you must not accept or use the Services. WHO WE ARE “Foundry,” “we,” “us,” and “our” means FoundryCo, Inc., together with its parents, subsidiaries, affiliates, successors, and assigns (collectively, “Foundry”). Address: 501 2nd Street, Suite 650, San Francisco, CA 94107, U.S.A. Email: foundry.legal@foundryco.com . ELIGIBILITY You must be at least the age of majority in your jurisdiction (or have parental consent if permitted by law) and capable of forming a binding contract. You may not use the Services if you are barred under applicable law or are on any U.S. or other applicable sanctions lists. You may not transfer, assign, sub-license, lend, or re-sell the rights granted under this license. ACCOUNT REGISTRATION AND SECURITY You must provide accurate account information and keep it updated. You are responsible for maintaining the confidentiality of credentials and for all activities under your account. Notify us immediately of any unauthorized use or security incident. We may require multi-factor authentication and may suspend accounts for suspected violations. Absolutely no framing of our site is permitted. SUBSCRIPTIONS, FEES, AND TAXES Certain Services may require payment of fees on a subscription or usage basis as described at the time of purchase or in an order form (“Order”). Unless stated otherwise, fees are billed in advance, non-cancelable, and non-refundable. You authorize us to charge your payment method via our payment processor. Late amounts may accrue interest at the lesser of 1.5% per month or the maximum allowed by law, and you are responsible for reasonable collection costs. Fees are exclusive of taxes; you are responsible for all applicable taxes, duties, and similar charges, excluding taxes based on our net income. CHANGES TO SERVICES AND TERMS We may modify the Services, features, or fees; material changes will be communicated with reasonable notice where practicable. We may update these Terms from time to time. Your continued use constitutes acceptance. If you do not agree to updated Terms, stop using the Services and, if applicable, cancel your subscription. USER CONTENT AND LICENSES “User Content” means data, content, files, materials, text, images, audio, video, code, and other information you submit to or through the Services. You retain ownership of your User Content. You grant Foundry a non-exclusive, worldwide, royalty-free license to host, store, reproduce, process, adapt, modify, transmit, display, and distribute User Content solely as necessary to provide, maintain, secure, and improve the Services, to prevent or address service or technical issues, to comply with law, and as otherwise permitted by you. You represent and warrant that you have all rights necessary to grant the above license and that your User Content and use of the Services do not infringe, misappropriate, or violate any rights or laws. ACCEPTABLE USE You agree not to: Use the Services for unlawful, harmful, fraudulent, infringing, defamatory, or offensive purposes. Upload malware, malicious code, or do anything that disrupts or harms the Services or others’ use. Reverse engineer, decompile, or attempt to access non-public areas or systems without authorization. Circumvent technical controls, usage limits, or security features. Use the Services to develop a competing product or to benchmark, except with our prior written consent. Misrepresent your identity or affiliation or collect personal data without lawful basis and consent where required. Forums and messaging are intended only for the personal use of subscribers and may not be used for commercial purposes or for organized political activity. You will be solely responsible for all content that you post on the Service. We may suspend or terminate access for violations. To protect our copyrighted content and enforce our rights under applicable intellectual property laws—including the Digital Millennium Copyright Act (DMCA), the UK Copyright, Designs and Patents Act, and relevant international treaties—we implement a series of Technological Protection Measures (TPMs) and Access Control Mechanisms across our digital properties. These measures are part of our broader enforcement framework and may affect how you access or interact with certain parts of our site, including premium or monetized content. By using our services, you agree to the following terms: Technological Protection Measures (TPMs) We use technical systems to prevent the unauthorized access, use, or circumvention of our protected content. These include, but are not limited to: Detection of a content or script blocker Browser and device validation mechanisms Consent management enforcement Attribute-Based Access Control (ABAC) Access to content or services may be dynamically granted or restricted based on real-time attributes such as: Authentication and subscription status IP address, geolocation, and timestamp Device and browser integrity Consent status and preferences Detection of technologies that interfere with our systems (e.g., blockers) We reserve the right to modify your access experience—including limiting functionality, presenting alternative offers, or denying access entirely—if your device or environment does not meet our Copyright Access Criteria (CAC). User Obligations Access to our site is made possible due to paid advertising, and other forms of compensation. Without this advertising and other compensation, we would not be able to provide you with our content or service. In exchange for this content and service, you agree not to attempt to circumvent or interfere with our access control technologies. This includes refraining from the use of spoofed user agents, VPNs to misrepresent location, browser extensions that interfere with functionality, or use tools designed to block technologies that are essential for our service to operate securely such as our CMP. The use of such blockers is prohibited without meeting additional access requirements such as interaction with embedded features. You agree and understand that we may use ABAC measures to detect, and enforce these requirements. Consent and Compliance Our access controls rely on your consent preferences, which are captured through a Consent Management Platform (CMP). If you do not grant consent or interfere with the operation of our CMP, we may restrict access to personalized or monetized services in accordance with your consent status and applicable laws. INTELLECTUAL PROPERTY; FEEDBACK The Services, including all software, documentation, user interfaces, know-how, and any derivatives or improvements thereof, and all materials published therein, including but not limited to articles, graphical images, interactive applications, audio clips, and video clips (collectively, the “Content”), and all related intellectual property rights therein, are owned by Foundry and/or its licensors and are protected by applicable intellectual property laws, including rights in domain names, service marks, and works of authorship. No intellectual property rights are transferred to you except as expressly set forth in these TOS. If you provide Foundry with comments, suggestions, or other feedback regarding the Services (“Feedback”), you grant Foundry a perpetual, irrevocable, worldwide, royalty-free license to use and incorporate that Feedback into the Services without any obligation to you. THIRD-PARTY SERVICES AND LINKS The Services may interoperate with or link to third-party services or content. We do not control and are not responsible for third-party services. Your use is subject to their terms and privacy policies. We are not liable for any damages arising from third-party services or links. PRIVACY AND DATA PROTECTION Our collection and use of personal data are described in our Privacy Policy available at https://foundryco.com/ or as otherwise provided. If a data processing addendum (DPA) is required under applicable law, it will form part of these Terms when executed or accepted by you. You are responsible for providing legally required notices and obtaining consents from individuals whose personal data you submit to the Services. SECURITY We implement reasonable technical and organizational measures designed to protect the Services and your data. However, no system is completely secure; you are responsible for appropriate backups of your User Content. You must not disclose security vulnerabilities except through our authorized reporting channels. CONFIDENTIALITY “Confidential Information” means any proprietary, non-public information including: (a) technical, marketing, financial, and business information, know-how, processes, policies, client lists, and data; and (b) any other information or materials of a type, or disclosed in a manner, that would lead a reasonable person to understand it should be considered confidential, disclosed by one party (“Discloser”) to the other party (“Recipient”) that is marked or identified as confidential or that a reasonable person would understand to be confidential given the nature of the information and the circumstances of disclosure. Confidential Information does not include information that: (i) is or becomes publicly available, other than as a result of the Recipient disclosing the information without authorization; (ii) the Recipient rightfully receives or have received from a third party without restrictions on disclosure; or (iii) is independently developed by the Recipient without access, use, or reference to Discloser’s Confidential Information. Recipient will use the Discloser’s Confidential Information only to solely to perform its obligations or exercise its rights under these TOS and will protect it from unauthorized disclosure with the same degree of care it uses to protect its own information of like nature (but not less than reasonable care). Recipient may share the Confidential Information with Authorized Recipients (defined below) who need access for purposes of performing their duties under these TOS and who are subject to confidentiality obligations at least as restrictive as those in these TOS, but it will not disclose the Confidential Information to third parties except as provided in these TOS or with the Discloser’s express written consent. “Authorized Recipients” means the employees, officers, directors, consultants, contractors, advisors, and/or legal counsel of the Recipient. Recipient may disclose Confidential Information as required by applicable law or a court order but must give the Discloser reasonable advanced written notice, unless it is prohibited by law from doing so, and make reasonable efforts to secure confidential treatment of the Confidential Information. Recipient acknowledges that unauthorized disclosure or use of Confidential Information may cause the Discloser to suffer irreparable harm that may not be adequately compensated by monetary damages. In addition to any other remedies that may be available to it, Discloser is entitled to seek injunctive relief, without posting bond, in connection with the Recipient’s imminent or threatened breach of its confidentiality obligations. BETA, FREE, AND TRIAL FEATURES We may offer trials, free tiers, or beta features. They are provided “as is,” may be modified or discontinued at any time, and may be subject to additional terms. We may limit usage or capacity. Use of the contents or output of the Service, or of any published material obtained directly or indirectly from the websites, online posts, or other publishing channels of Foundry, in connection with any automated machine learning and/or artificial intelligence software or tools or any software of similar functionality or related tools, including, any engine, software, crawler, robot, script, spider, or any other device or mechanism to harvest, mine, compile, collect, or “scrape” any information (collectively, “AI Tools”) is expressly prohibited, except as specifically permitted below or in a written commercial use agreement in which such right is expressly granted, including, without limitation, use of AI Tools (a) to train or develop any machine learning or AI model or AI Tool, or (b) to generate or replicate text, images, or any other material, output, or derivative works, whether for commercial or personal use. Notwithstanding the foregoing, Foundry hereby grants general consent to use of AI Tools which only distribute content from the Service without distorting modifications to the public, without charge and maintains links or reference to the original content in the Service. SUSPENSION AND TERMINATION You may cancel at any time as described in your account or Order. Except where prohibited by law or stated otherwise, prepaid fees are non-refundable. We may suspend or terminate your access for violation of these Terms, non-payment, risk to the Services or other users, or as required by law. We will use reasonable efforts to notify you of the reason for suspension when lawful and practicable. Upon termination, your right to use the Services ends. We may delete your User Content after a retention period of thirty (30) days unless legally prohibited or otherwise agreed in writing. You are responsible for exporting your data prior to termination. WARRANTIES; DISCLAIMERS You represent that you will use the Services in compliance with applicable laws and these Terms. THE SERVICES ARE PROVIDED “AS IS” AND “AS AVAILABLE.” TO THE MAXIMUM EXTENT PERMITTED BY LAW, FOUNDRY DISCLAIMS ALL WARRANTIES, EXPRESS OR IMPLIED, INCLUDING ANY WARRANTIES OF MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE, TITLE, AND NON-INFRINGEMENT. WE DO NOT WARRANT THAT THE SERVICES WILL BE UNINTERRUPTED, SECURE, OR ERROR-FREE, OR THAT DATA WILL BE ACCURATE OR PRESERVED WITHOUT LOSS. LIMITATION OF LIABILITY TO THE MAXIMUM EXTENT PERMITTED BY LAW, FOUNDRY WILL NOT BE LIABLE FOR ANY INDIRECT, INCIDENTAL, SPECIAL, CONSEQUENTIAL, EXEMPLARY, OR PUNITIVE DAMAGES; LOSS OF PROFITS, REVENUE, DATA, GOODWILL; OR BUSINESS INTERRUPTION, EVEN IF ADVISED OF THE POSSIBILITY. TO THE MAXIMUM EXTENT PERMITTED BY LAW, FOUNDRY’S TOTAL LIABILITY FOR ALL CLAIMS ARISING OUT OF OR RELATED TO THE SERVICES OR THESE TERMS WILL NOT EXCEED THE AMOUNTS PAID BY YOU TO FOUNDRY FOR THE SERVICES IN THE 12 MONTHS PRECEDING THE EVENT GIVING RISE TO LIABILITY (OR $100 IF YOU HAVE NOT PAID ANY AMOUNTS). THESE LIMITATIONS APPLY REGARDLESS OF THE THEORY OF LIABILITY AND EVEN IF A REMEDY FAILS OF ITS ESSENTIAL PURPOSE. SOME JURISDICTIONS DO NOT ALLOW CERTAIN LIMITATIONS; IN SUCH CASES, THE LIMITATIONS APPLY TO THE FULLEST EXTENT PERMITTED. DISPUTE RESOLUTION; ARBITRATION; CLASS WAIVER This Section may not apply to you if prohibited by law in your jurisdiction. Informal Resolution: Before filing a claim, you agree to email legal@foundryco.com with a brief written description of the dispute and your contact information, and to work with us in good faith for thirty (30) days to resolve it informally. Arbitration Agreement: Any dispute, claim, or controversy arising out of or relating to these Terms or the Services that cannot be resolved informally will be resolved by binding individual arbitration administered by JAMS or AAA under its applicable rules. The seat/location of arbitration will be Wilmington, Delaware. Judgment on the award may be entered in any court of competent jurisdiction. Class and Jury Trial Waiver: YOU AND FOUNDRY AGREE THAT EACH MAY BRING CLAIMS ONLY IN YOUR OR ITS INDIVIDUAL CAPACITY AND NOT AS A PLAINTIFF OR CLASS MEMBER IN ANY PURPORTED CLASS OR REPRESENTATIVE ACTION. ABSENT WRITTEN CONSENT FROM FOUNDRY, THE ARBITRATOR MAY NOT CONSOLIDATE CLAIMS OF MORE THAN ONE PERSON OR PRESIDE OVER ANY FORM OF REPRESENTATIVE OR CLASS PROCEEDING. YOU AND FOUNDRY WAIVE THE RIGHT TO A JURY TRIAL. Opt-Out: You may opt out of arbitration within thirty (30) days of first accepting these Terms by emailing legal@foundryco.com with subject “Arbitration Opt-Out” and your account information. Opting out does not affect other provisions. INDEMNIFICATION You agree to indemnify, defend, and hold harmless Foundry, its officers, directors, employees, agents, and affiliates from and against any and all third-party claims, damages, liabilities, judgments, settlements, costs, and expenses (including reasonable attorneys’ fees) arising out of or relating to (a) your misuse of the Services; (b) your breach of these TOS; (c) any content you post; or (d) your violation of any law or the rights of a third party. Foundry shall promptly notify you in writing of any indemnifiable claim, provide reasonable cooperation at your expense, and allow you sole control over the defense and settlement, provided that you may not settle any claim that imposes any obligation on Foundry without Foundry’s prior written consent. DMCA AND COPYRIGHT POLICY We respect IP rights. If you believe content on the Services infringes your copyright, send a notice pursuant to 17 U.S.C. § 512 to: DMCA Agent, 501 2 nd Street, Suite 650, San Francisco, CA 94107 U.S.A., legal@foundryco.com , including: Your contact details and physical/electronic signature Identification of the copyrighted work and the allegedly infringing material The URL or location of the material A statement of good faith belief and accuracy under penalty of perjury that you are authorized to act We may remove content and terminate repeat infringers where appropriate. EXPORT, SANCTIONS, AND ANTI-CORRUPTION You represent that you are not located in, under the control of, or a national/resident of any country or person subject to sanctions. You will comply with all export control and anti-corruption laws (including the U.S. Export Administration Regulations, OFAC regulations, FCPA, and similar laws). GOVERNMENT USE If you are a U.S. government end user, the Services and documentation are “Commercial Items” as defined in 48 C.F.R. §2.101 and are provided with only those rights as set forth in these Terms. MOBILE APPLICATIONS AND APP STORE TERMS If you download our mobile app from an app store, you acknowledge that: These Terms are between you and Foundry only. The app store provider is not responsible for the app or its content and has no obligation to provide maintenance or support. You must comply with the app store’s terms. You acknowledge the app store provider is a third-party beneficiary of this section. PUBLICITY If you are an organization, unless you opt out by emailing foundry.legal@foundryco.com , you grant us the right to use your name and logo to identify you as a customer on our website and in marketing materials, consistent with your brand guidelines. MONITORING; SUSPICIOUS ACTIVITY; COMPLIANCE Foundry reserves the right to monitor content posted on or use of the Services for compliance, security, fraud prevention, and service improvement, and to modify or remove any messages or postings that Foundry deems, in its sole and absolute discretion, to be abusive, defamatory, in violation of any copyright, trademark, or other intellectual property right of any third party, or otherwise inappropriate for the Services. Foundry also reserve the right to edit or modify any submissions in response to requests for feedback, Letters to the Editor, or other commentary. Notwithstanding the foregoing, Foundry is not obligated to take any such actions and will not be responsible or liable for content posted by any subscriber in any forum, message board, or other area within the Services. Foundry reserved the right to report suspected unlawful activity to law enforcement. SERVICE-SPECIFIC TERMS Certain features or services may be subject to additional terms presented at the time of use or in an Order. Those terms are incorporated by reference and control to the extent of any conflict. NOTICES We may provide notices by email, in-product messages, or posting to the Services. Your notices to us must be sent to foundry.legal@foundryco.com with a copy to 501 2 nd Street, Suite 650, San Francisco, CA 94107 U.S.A., Attention: Legal. ASSIGNMENT You may not assign or transfer these Terms without our prior written consent. We may assign these Terms in connection with a merger, acquisition, corporate reorganization, or sale of assets. ENTIRE AGREEMENT; ORDER OF PRECEDENCE These Terms, any Orders, the Privacy Policy, and any applicable DPA or service-specific terms constitute the entire agreement and supersede prior agreements on the subject. In case of conflict, the following order applies: Order, DPA (for data processing matters), service-specific terms, these Terms, Privacy Policy. SEVERABILITY; WAIVER If any provision is unenforceable, it will be limited to the minimum extent necessary, and the remainder will remain in effect. Failure to enforce any provision is not a waiver. FORCE MAJEURE We are not liable for failure or delay due to events beyond our reasonable control, including acts of God, natural disasters, war, terrorism, labor actions, government actions, utility failures, and internet or telecommunications issues. GOVERNING LAW AND VENUE These Terms are governed by and construed in accordance with the laws of the State of Delaware, as applied to contracts entered into and performed within the State of Delaware. You agree to grant jurisdiction over yourself to the courts of the State of Delaware and designate it as the forum for resolution of all disputes arising under these TOS. INTERPRETATION Headings are for convenience only. “Including” means “including without limitation.” The English version of these Terms controls. CONTACT Questions about these Terms: Email foundry.legal@foundryco.com Mail: 501 2nd Street, Suite 650 San Francisco, CA 94107 U.S.A. Attn: Legal Department Our brands Solutions Research Resources Events About Newsletter Contact us Work here Sitemap Topics Cookies: First-party & third-party Generative AI sponsorships Intent data IP address intelligence Reverse IP lookup Website visitor tracking Legal Terms of Service Privacy / Compliance Environmental Policy Copyright Notice Licensing CCPA IAB Europe TCF Regions ASEAN Australia & New Zealand Central Europe Germany India Middle East, Turkey, & Africa Nordics Southern Europe Western Europe Facebook Twitter LinkedIn ©2026 FoundryCo, Inc. All Rights Reserved. Privacy Policy Ad Choices Privacy Settings California: Do Not Sell My Information | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/zh_tw/AmazonCloudWatch/latest/logs/LogsAnomalyDetection.html | 日誌異常偵測 - Amazon CloudWatch Logs 日誌異常偵測 - Amazon CloudWatch Logs 文件 Amazon CloudWatch 使用者指南 異常和模式的嚴重性和優先順序 異常可見性時間 隱藏異常 常見問答集 本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。 日誌異常偵測 您可以透過兩種方式偵測日誌資料中的異常:建立 日誌異常偵測器 以進行持續監控,或使用 CloudWatch Logs Insights 查詢中的 anomaly detection 命令進行隨需分析。 日誌異常偵測器會掃描擷取至日誌群組的日誌事件,並在日誌資料中自動尋找異常。異常偵測使用機器學習和模式辨識來建立典型日誌內容的基準。對於隨需分析,您可以在 CloudWatch Logs Insights 查詢中使用 anomaly detection 命令來識別時間序列資料中的異常模式。如需查詢型異常偵測的詳細資訊,請參閱 在 CloudWatch Logs Insights 中使用異常偵測 。 為日誌群組建立異常偵測器後,它會使用日誌群組中過去兩週的日誌事件進行訓練。訓練期間最多可能需要 15 分鐘。訓練完成後,它會開始分析傳入的日誌以識別異常,而異常會顯示在 CloudWatch Logs 主控台中供您檢查。 CloudWatch Logs 模式辨識透過識別日誌中的靜態和動態內容來擷取日誌模式。模式有助於分析大型日誌集,因為大量日誌事件通常可以壓縮為幾個模式。 例如,請參閱下列三個日誌事件的範例。 2023-01-01 19:00:01 [INFO] Calling DynamoDB to store for ResourceID: 12342342k124-12345 2023-01-01 19:00:02 [INFO] Calling DynamoDB to store for ResourceID: 324892398123-1234R 2023-01-01 19:00:03 [INFO] Calling DynamoDB to store for ResourceID: 3ff231242342-12345 在先前的範例中,這三個日誌事件都遵循一個模式: <Date-1> <Time-2> [INFO] Calling DynamoDB to store for resource id <ResourceID-3> 模式內的欄位稱為 字符 。在模式內不同的欄位,例如請求 ID 或時間戳記,稱為 動態字符 。針對動態字符找到的每個不同值稱為 字符值 。 如果 CloudWatch Logs 可以推斷動態字符代表的資料類型,則會將字符顯示為 < string - number > 。 字串 是字符所代表資料類型的描述。相較於其他動態字符, 數字 會顯示此字符在模式中的顯示位置。 CloudWatch Logs 會根據分析包含該名稱的日誌事件內容來指派名稱的字串部分。 如果 CloudWatch Logs 無法推斷動態字符所代表的資料類型,它會將字符顯示為 <Token- number >,且 數字 指出與其他動態字符相比,此字符在模式中出現的位置。 動態字符的常見範例包括錯誤代碼、IP 地址、時間戳記和請求 IDs。 日誌異常偵測使用這些模式來尋找異常。在異常偵測器模型訓練期間之後,會根據已知趨勢評估日誌。異常偵測器會將顯著波動標記為異常。 本章說明如何啟用異常偵測、檢視異常、建立日誌異常偵測器的警示,以及日誌異常偵測器發佈的指標。它還描述了如何使用 加密異常偵測器及其結果 AWS Key Management Service。 建立日誌異常偵測器不會產生費用。 異常和模式的嚴重性和優先順序 日誌異常偵測器找到的每個異常都會指派 優先順序 。每個找到的模式都會指派一個 嚴重性 。 優先順序 會自動計算,並以模式的嚴重性等級和與預期值的偏差量為基礎。例如,如果特定字符值突然增加 500%,即使異常的嚴重性為 ,也可能被指定為 HIGH 優先順序 NONE 。 嚴重性 僅基於模式中找到的關鍵字 ERROR ,例如 FATAL 、 和 WARN 。如果找不到這些關鍵字,則模式的嚴重性會標記為 NONE 。 異常可見性時間 當您建立異常偵測器時,您可以指定它的最大異常可見性期間。這是異常顯示在主控台中,並由 ListAnomalies API 操作傳回的天數。經過此期間的異常之後,如果持續發生,它會自動接受為一般行為,且異常偵測器模型會停止將其標記為異常。 如果您在建立異常偵測器時未調整可見性時間,則會使用 21 天做為預設值。 隱藏異常 發現異常之後,您可以選擇暫時或永久予以隱藏。隱藏異常會導致異常偵測器在您指定的時間內停止將此出現標記為異常。當您抑制異常時,您可以選擇僅抑制該特定異常,或抑制與發現異常的模式相關的所有異常。 您仍然可以在 主控台中檢視隱藏的異常。您也可以選擇停止隱藏它們。 常見問答集 是否 AWS 使用我的資料來訓練機器學習演算法,以供其他客戶 AWS 使用? 否。訓練建立的異常偵測模型是根據日誌群組中的日誌事件,並且僅在該日誌群組和該 AWS 帳戶中使用。 哪些類型的日誌事件適用於異常偵測? 日誌異常偵測非常適合: 應用程式日誌和其他類型的日誌,其中大多數日誌項目都符合典型模式。具有日誌層級或嚴重性關鍵字的事件的日誌群組,例如 INFO 、 ERROR 和 DEBUG ,特別適合用於日誌異常偵測。 日誌異常偵測不適用於: 具有極長 JSON 結構的日誌事件,例如 CloudTrail Logs。模式分析最多只會分析日誌行的前 1500 個字元,因此超過該限制的任何字元都會略過。 稽核或存取日誌,例如 VPC 流程日誌,也會減少異常偵測的成功率。異常偵測旨在尋找應用程式問題,因此可能不適合網路或存取異常。 為了協助您判斷異常偵測器是否適合特定日誌群組,請使用 CloudWatch Logs 模式分析來尋找群組中日誌事件中的模式數目。如果模式數量不超過約 300,異常偵測可能運作良好。如需模式分析的詳細資訊,請參閱 模式分析 。 哪些項目被標記為異常? 下列情況可能會導致日誌事件標記為異常: 具有先前在日誌群組中看不到模式的日誌事件。 已知模式的重大變化。 動態字符的新值,具有一組分散的一般值。 動態字符值的出現次數發生大幅變更。 雖然上述所有項目都可能標記為異常,但它們並不表示應用程式效能不佳。例如,higher-than-usual 200 的成功值數量可能會標記為異常。在這種情況下,您可能會考慮抑制這些不代表問題的異常。 正在遮罩的敏感資料會發生什麼情況? 任何被遮罩為敏感資料的日誌事件部分都不會掃描異常。如需有關遮罩敏感資料的詳細資訊,請參閱 使用遮罩協助保護敏感日誌資料 。 您的瀏覽器已停用或無法使用 Javascript。 您必須啟用 Javascript,才能使用 AWS 文件。請參閱您的瀏覽器說明頁以取得說明。 文件慣用形式 針對排程查詢進行故障診斷 在 CloudWatch Logs Insights 中使用異常偵測 此頁面是否有幫助? - 是 感謝您,讓我們知道我們做得很好! 若您有空,歡迎您告知我們值得讚許的地方,這樣才能保持良好服務。 此頁面是否有幫助? - 否 感謝讓我們知道此頁面仍須改善。很抱歉,讓您失望。 若您有空,歡迎您提供改善文件的方式。 | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/it_it/AmazonCloudWatch/latest/logs/LogsAnomalyDetection.html | Rilevamento di anomalie nei log - CloudWatch Registri Amazon Rilevamento di anomalie nei log - CloudWatch Registri Amazon Documentazione Amazon CloudWatch Guida per l’utente Gravità e priorità delle anomalie e dei modelli Tempo di visibilità dell'anomalia Soppressione di un'anomalia Domande frequenti Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà. Rilevamento di anomalie nei log È possibile rilevare le anomalie nei dati di registro in due modi: creando un rilevatore di anomalie nei log per il monitoraggio continuo o utilizzando il comando nelle query di Logs Insights per l' anomaly detection analisi su richiesta. CloudWatch Un rilevatore di anomalie nel registro analizza gli eventi di registro inseriti in un gruppo di log e trova automaticamente le anomalie nei dati di registro. Il rilevamento delle anomalie utilizza l'apprendimento automatico e il riconoscimento dei pattern per stabilire le linee di base dei contenuti tipici dei log. Per l'analisi su richiesta, puoi utilizzare il anomaly detection comando nelle query di CloudWatch Logs Insights per identificare modelli insoliti nei dati delle serie temporali. Per ulteriori informazioni sul rilevamento delle anomalie basato su query, vedere. Utilizzo del rilevamento delle anomalie in Logs Insights CloudWatch Dopo aver creato un rilevatore di anomalie per un gruppo di log, questo si allena utilizzando gli eventi di registro delle ultime due settimane nel gruppo di log per l'addestramento. Il periodo di formazione può durare fino a 15 minuti. Una volta completato l'addestramento, inizia ad analizzare i log in entrata per identificare le anomalie e le anomalie vengono visualizzate nella console CloudWatch Logs per essere esaminate dall'utente. CloudWatch Logs Pattern Recognition estrae i pattern di log identificando i contenuti statici e dinamici nei log. I pattern sono utili per analizzare set di log di grandi dimensioni perché un gran numero di eventi di log può spesso essere compresso in pochi pattern. Ad esempio, vedete il seguente esempio di tre eventi di registro. 2023-01-01 19:00:01 [INFO] Calling DynamoDB to store for ResourceID: 12342342k124-12345 2023-01-01 19:00:02 [INFO] Calling DynamoDB to store for ResourceID: 324892398123-1234R 2023-01-01 19:00:03 [INFO] Calling DynamoDB to store for ResourceID: 3ff231242342-12345 Nell'esempio precedente, tutti e tre gli eventi di registro seguono uno schema: <Date-1> <Time-2> [INFO] Calling DynamoDB to store for resource id <ResourceID-3> I campi all'interno di un pattern sono chiamati token. I campi che variano all'interno di uno schema, come l'ID della richiesta o il timestamp, vengono definiti token dinamici. Ogni valore diverso trovato per un token dinamico viene chiamato valore token. Se CloudWatch Logs è in grado di dedurre il tipo di dati rappresentato da un token dinamico, il token viene visualizzato come. < string - number > string È una descrizione del tipo di dati rappresentato dal token. number Mostra dove nel modello appare questo token, rispetto agli altri token dinamici. CloudWatch Logs assegna la parte stringa del nome in base all'analisi del contenuto degli eventi di registro che la contengono. Se CloudWatch Logs non è in grado di dedurre il tipo di dati rappresentato da un token dinamico, visualizza il token come <Token- number > e number indica dove nel modello appare questo token rispetto agli altri token dinamici. Esempi comuni di token dinamici includono codici di errore, indirizzi IP, timestamp e richieste. IDs Il rilevamento delle anomalie nei log utilizza questi modelli per trovare anomalie. Dopo il periodo di addestramento del modello di rilevatore di anomalie, i log vengono valutati in base alle tendenze note. Il rilevatore di anomalie segnala le fluttuazioni significative come anomalie. Questo capitolo descrive come abilitare il rilevamento delle anomalie, visualizzare le anomalie, creare allarmi per i rilevatori di anomalie di registro e le metriche pubblicate dai rilevatori di anomalie di registro. Descrive inoltre come crittografare il rilevatore di anomalie e i relativi risultati con. AWS Key Management Service La creazione di rilevatori di anomalie di registro non comporta costi. Gravità e priorità delle anomalie e dei modelli A ogni anomalia rilevata da un rilevatore di anomalie di registro viene assegnata una priorità. A ogni pattern trovato viene assegnata una gravità. La priorità viene calcolata automaticamente e si basa sia sul livello di gravità del modello che sulla quantità di deviazione dai valori previsti. Ad esempio, se il valore di un determinato token aumenta improvvisamente del 500%, tale anomalia potrebbe essere designata come HIGH prioritaria anche se la sua gravità lo è. NONE La severità si basa solo sulle parole chiave presenti nei modelli come FATAL ERROR , e. WARN Se non viene trovata nessuna di queste parole chiave, la gravità di un pattern viene contrassegnata come NONE . Tempo di visibilità dell'anomalia Quando si crea un rilevatore di anomalie, si specifica il periodo massimo di visibilità delle anomalie. Questo è il numero di giorni in cui l'anomalia viene visualizzata nella console e viene restituita dall'operazione API. ListAnomalies Trascorso questo periodo di tempo relativo a un'anomalia, se continua a verificarsi, viene automaticamente accettata come comportamento normale e il modello di rilevatore di anomalie smette di contrassegnarla come anomalia. Se non modifichi il tempo di visibilità quando crei un rilevatore di anomalie, per impostazione predefinita vengono utilizzati 21 giorni. Soppressione di un'anomalia Dopo aver rilevato un'anomalia, è possibile scegliere di sopprimerla temporaneamente o permanentemente. La soppressione di un'anomalia fa sì che il rilevatore di anomalie smetta di contrassegnare tale evento come anomalia per il periodo di tempo specificato. Quando si sopprime un'anomalia, è possibile scegliere di sopprimere solo quell'anomalia specifica o di sopprimere tutte le anomalie relative al modello in cui è stata rilevata l'anomalia. È ancora possibile visualizzare le anomalie soppresse nella console. Puoi anche scegliere di smettere di sopprimerle. Domande frequenti AWS Utilizza i miei dati per addestrare algoritmi di apprendimento automatico da AWS utilizzare o per altri clienti? No. Il modello di rilevamento delle anomalie creato dal corso di formazione si basa sugli eventi di registro in un gruppo di log e viene utilizzato solo all'interno di quel gruppo di log e di quell' AWS account. Quali tipi di eventi di registro funzionano bene con il rilevamento delle anomalie? Il rilevamento delle anomalie nei log è ideale per: registri delle applicazioni e altri tipi di log in cui la maggior parte delle voci di registro rientra negli schemi tipici. I gruppi di log con eventi che contengono parole chiave a livello di registro o di gravità come INFO , ERROR e DEBUG sono particolarmente adatti per il rilevamento delle anomalie nei log. Il rilevamento delle anomalie nei log non è adatto per: Registra eventi con strutture JSON estremamente lunghe, come Logs. CloudTrail L'analisi dei pattern analizza solo fino ai primi 1500 caratteri di una riga di registro, quindi tutti i caratteri oltre tale limite vengono ignorati. Anche i log di controllo o di accesso, come i log di flusso VPC, avranno meno successo con il rilevamento delle anomalie. Il rilevamento delle anomalie serve a individuare i problemi delle applicazioni, quindi potrebbe non essere adatto per le anomalie di rete o di accesso. Per aiutarvi a determinare se un rilevatore di anomalie è adatto a un determinato gruppo di log, utilizzate l'analisi del pattern CloudWatch Logs per trovare il numero di pattern negli eventi di registro del gruppo. Se il numero di pattern non è superiore a circa 300, il rilevamento delle anomalie potrebbe funzionare bene. Per ulteriori informazioni sull'analisi dei pattern, vedere Analisi del modello . Cosa viene contrassegnato come anomalia? Le seguenti occorrenze possono far sì che un evento di registro venga contrassegnato come anomalia: Un evento di registro con uno schema mai visto prima nel gruppo di log. Una variazione significativa rispetto a un modello noto. Un nuovo valore per un token dinamico che ha un insieme discreto di valori usuali. Una grande variazione nel numero di occorrenze di un valore per un token dinamico. Sebbene tutti gli elementi precedenti possano essere contrassegnati come anomalie, non tutti significano che l'applicazione stia funzionando male. Ad esempio, higher-than-usual alcuni valori di 200 successo potrebbero essere contrassegnati come anomalia. In casi come questo, potresti prendere in considerazione la possibilità di eliminare queste anomalie che non indicano problemi. Cosa succede con i dati sensibili che vengono mascherati? Qualsiasi parte degli eventi di registro mascherata come dati sensibili non viene analizzata per individuare eventuali anomalie. Per ulteriori informazioni sul mascheramento dei dati sensibili, consulta Aiutare a proteggere i dati di registro sensibili con il mascheramento. JavaScript è disabilitato o non è disponibile nel tuo browser. Per usare la documentazione AWS, JavaScript deve essere abilitato. Consulta le pagine della guida del browser per le istruzioni. Convenzioni dei documenti Risoluzione dei problemi relativi alle interrogazioni pianificate Utilizzo del rilevamento delle anomalie in Logs Insights CloudWatch Questa pagina ti è stata utile? - Sì Grazie per averci comunicato che stiamo facendo un buon lavoro! Se hai un momento, ti invitiamo a dirci che cosa abbiamo fatto che ti è piaciuto così possiamo offrirti altri contenuti simili. Questa pagina ti è stata utile? - No Grazie per averci comunicato che questa pagina ha bisogno di essere modificata. Siamo spiacenti di non aver soddisfatto le tue esigenze. Se hai un momento, ti invitiamo a dirci come possiamo migliorare la documentazione. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/ja_jp/AmazonCloudWatch/latest/monitoring/what-is-network-monitor.html | Network Synthetic Monitor の使用 - Amazon CloudWatch Network Synthetic Monitor の使用 - Amazon CloudWatch ドキュメント Amazon CloudWatch ユーザーガイド 主な特徴 用語とコンポーネント 要件と制限 Network Synthetic Monitor の使用 Network Synthetic Monitor は、AWS ホストアプリケーションをオンプレミスの宛先に接続するネットワークのパフォーマンスを可視化し、ネットワークパフォーマンスの低下の原因を数分以内に特定できるようにします。Network Synthetic Monitor は AWS によって完全に管理されており、モニタリング対象リソース対して個別のエージェントは必要ありません。Network Synthetic Monitor を使用して、ハイブリッドネットワーク接続のパケット損失とレイテンシーの視覚化、およびアラートとしきい値の設定を行います。その後、この情報に基づいて、エンドユーザーのエクスペリエンスを向上させるためのアクションを実行できます。 Network Synthetic Monitor は、ネットワークのパフォーマンスをリアルタイムで把握しようとするネットワークオペレーターとアプリケーション開発者を対象としています。 Network Synthetic Monitor の主な機能 Network Synthetic Monitor を使用すると、継続的にリアルタイムのパケット損失とレイテンシーのメトリクスを使って、変化するハイブリッドネットワーク環境のベンチマークを行うことができます。 AWS Direct Connect を使用して接続すると、Network Synthetic Monitor が Amazon CloudWatch アカウントに書き込む Network Health Indicator (NHI) を使用して、AWS ネットワーク内のネットワークの低下を迅速に診断することができます。NHI メトリクスはバイナリ値で、ネットワークの低下が AWS 内にあるかどうかに関する確率スコアに基づいています。 Network Synthetic Monitor は、フルマネージド型エージェントアプローチを使用してモニタリングを実現するため、VPC にもオンプレミスにもエージェントをインストールする必要はありません。開始するには、VPC サブネットとオンプレミス IP アドレスを指定するだけです。AWS PrivateLink を使用すると、VPC と Network Synthetic Monitor リソース間のプライベート接続を確立できます。詳細については、「 インターフェイス VPC エンドポイントでの CloudWatch、CloudWatch Synthetics、および CloudWatch Network Monitoring の使用 」を参照してください。 Network Synthetic Monitor は CloudWatch メトリクスにメトリクスを公開します。ダッシュボードを作成して、メトリクスを表示したり、アプリケーションに固有のメトリクスに基づく実用的なしきい値やアラームを作成したりすることもできます。 詳細については、「 Network Synthetic Monitor の仕組み 」を参照してください。 Network Synthetic Monitor の用語とコンポーネント プローブ – プローブは、AWS ホストリソースからオンプレミスの宛先 IP アドレスに送信されるトラフィックです。プローブによって測定された Network Synthetic Monitor メトリクスは、モニターで設定した各プローブの CloudWatch アカウントに書き込まれます。 モニター – モニターは、作成した Network Synthetic Monitor プローブ が測定するトラフィックのネットワークパフォーマンスやその他のヘルス情報を表示します。モニターの作成の一環としてプローブを追加し、モニターを使用してネットワークパフォーマンスメトリクス情報を表示できます。アプリケーションのモニタを作成するときは、ネットワークソースとして AWS ホストリソースを追加します。Network Synthetic Monitor はその後、AWS ホストリソースと宛先 IP アドレスの間で組み合わせ可能なすべてのプローブのリストを作成します。トラフィックをモニターする送信先を選択します。 AWS ネットワークソース — AWS ネットワークソースは、モニタプローブの送信元の AWS ソースで、いずれかの VPC 内のサブネットになります。 宛先 — 宛先は、オンプレミスネットワーク内にある、AWS ネットワークソースのターゲットです。宛先は、オンプレミスの IP アドレス、ネットワークプロトコル、ポート、およびネットワークパケットサイズで構成されます。IPv4 と IPv6 アドレスの両方がサポートされます。 Network Synthetic Monitor の要件と制限 以下に、Network Synthetic Monitor の要件と制限をまとめています。特定のクォータ (または制限) については、「 Network Synthetic Monitor 」を参照してください。 モニターサブネットは、モニターと同じアカウントが所有している必要があります。 Network Synthetic Monitor は、AWS ネットワークに問題が発生した場合に、自動ネットワークフェイルオーバーを提供しません。 作成するプローブごとに料金が発生します。料金の詳細については、「 Network Synthetic Monitor の料金 」を参照してください。 ブラウザで JavaScript が無効になっているか、使用できません。 AWS ドキュメントを使用するには、JavaScript を有効にする必要があります。手順については、使用するブラウザのヘルプページを参照してください。 ドキュメントの表記規則 サービスリンクロール Network Synthetic Monitor の仕組み このページは役に立ちましたか? - はい ページが役に立ったことをお知らせいただき、ありがとうございます。 お時間がある場合は、何が良かったかお知らせください。今後の参考にさせていただきます。 このページは役に立ちましたか? - いいえ このページは修正が必要なことをお知らせいただき、ありがとうございます。ご期待に沿うことができず申し訳ありません。 お時間がある場合は、ドキュメントを改善する方法についてお知らせください。 | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/systems-manager/latest/userguide/state-manager-associations.html | Working with associations in Systems Manager - AWS Systems Manager Working with associations in Systems Manager - AWS Systems Manager Documentation AWS Systems Manager User Guide AWS Systems Manager Change Manager is no longer open to new customers. Existing customers can continue to use the service as normal. For more information, see AWS Systems Manager Change Manager availability change . Working with associations in Systems Manager This section describes how to create and manage State Manager associations by using the AWS Systems Manager console, the AWS Command Line Interface (AWS CLI), and AWS Tools for PowerShell. Topics Understanding targets and rate controls in State Manager associations Creating associations Editing and creating a new version of an association Deleting associations Running Auto Scaling groups with associations Viewing association histories Working with associations using IAM Javascript is disabled or is unavailable in your browser. To use the Amazon Web Services Documentation, Javascript must be enabled. Please refer to your browser's Help pages for instructions. Document Conventions Understanding how State Manager works Understanding targets and rate controls Did this page help you? - Yes Thanks for letting us know we're doing a good job! If you've got a moment, please tell us what we did right so we can do more of it. Did this page help you? - No Thanks for letting us know this page needs work. We're sorry we let you down. If you've got a moment, please tell us how we can make the documentation better. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/zh_tw/AmazonCloudWatch/latest/monitoring/what-is-network-monitor.html | 使用網絡合成監視器 - Amazon CloudWatch 使用網絡合成監視器 - Amazon CloudWatch 文件 Amazon CloudWatch 使用者指南 主要功能 術語和要素 要求與限制 本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。 使用網絡合成監視器 網絡合成監視器可讓您了解將 AWS 託管的應用程式連線至內部部署目的地的網路效能,並可在幾分鐘內識別任何網路效能降低的原因。Network Synthetic Monitor 完全由 管理 AWS,且不需要受監控資源上的個別代理程式。網絡合成監視器可用於視覺化呈現混合網路連線的封包遺失率和延遲,並設定警示和閾值。然後,根據此資訊,您可以採取行動來改善最終使用者的體驗。 網絡合成監視器適用於想要即時深入了解網路效能的網路營運商和應用程式開發人員。 網絡合成監視器主要功能 網絡合成監視器可透過持續的即時封包遺失率和延遲指標來測試不斷變化的混合網路環境。 當您使用 連線時 AWS Direct Connect,Network Synthetic Monitor 可協助您使用 Network Synthetic Monitor 寫入 Amazon CloudWatch 帳戶的網路運作狀態指標 (NHI),快速診斷 AWS 網路內的網路降級。NHI 指標是二進位值,基於 AWS內是否出現網路降級的概率評分。 網絡合成監視器提供完全受管的代理程式監控方法,因此您無需在 VPC 或內部部署中安裝代理程式。開始使用時,只需要指定 VPC 子網路和內部部署 IP 位址即可。您可以使用 在 VPC 和 Network Synthetic Monitor 資源之間建立私有連線 AWS PrivateLink。如需詳細資訊,請參閱 使用 CloudWatch、CloudWatch Synthetics 和 CloudWatch 網路監控搭配介面 VPC 端點 。 網絡合成監視器會將指標發布至 CloudWatch Metrics。可以建立儀表板來檢視指標,並針對特定於應用程式的指標建立可操作的閾值和警示。 如需詳細資訊,請參閱 網絡合成監視器的運作方式 。 網絡合成監視器術語和元件 探查 — 探查是從 AWS託管資源傳送至內部部署目的地 IP 地址的流量。對於監視器中設定的每個探針,網絡合成監視器指標會寫入 CloudWatch 帳戶中。 監視器 :監視器針對您已為其建立網絡合成監視器 探針 的流量,顯示網路效能和其他運作狀態資訊。可以在建立監視器的過程中新增探針,然後使用監視器檢視網路效能指標資訊。當您為應用程式建立監視器時,您可以新增 AWS 託管資源做為網路來源。然後,Network Synthetic Monitor 會建立 AWS 託管資源和目的地 IP 地址之間所有可能探查的清單。您可以選擇要為其監控流量的目的地。 AWS 網路來源 — AWS 網路來源是監控探查的原始 AWS 來源,這是其中一個 VPCs中的子網路。 目的地 :目的地是 AWS 網路來源內部部署網路中的目標。目的地是內部部署 IP 位址、網路通訊協定、連接埠和網路封包大小的組合。同時支援 IPv4 和 IPv6 位址。 網絡合成監視器要求和限制 以下摘要說明網絡合成監視器的要求和限制。如需了解特定配額 (或限制),請參閱 網絡合成監視器 。 監視器子網路必須由與監視器相同的帳戶擁有。 網路合成監視器不會在發生網路問題時提供自動 AWS 網路容錯移轉。 您建立的每個探查都會收取費用。如需定價詳情,請參閱 網絡合成監視器的定價 。 您的瀏覽器已停用或無法使用 Javascript。 您必須啟用 Javascript,才能使用 AWS 文件。請參閱您的瀏覽器說明頁以取得說明。 文件慣用形式 服務連結角色 網絡合成監視器的運作方式 此頁面是否有幫助? - 是 感謝您,讓我們知道我們做得很好! 若您有空,歡迎您告知我們值得讚許的地方,這樣才能保持良好服務。 此頁面是否有幫助? - 否 感謝讓我們知道此頁面仍須改善。很抱歉,讓您失望。 若您有空,歡迎您提供改善文件的方式。 | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/pt_br/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent-New-Instances-CloudFormation.html#CloudWatch-Agent-CloudFormation-troubleshooting | Instalar o agente do CloudWatch em novas instâncias usando o CloudFormation - Amazon CloudWatch Instalar o agente do CloudWatch em novas instâncias usando o CloudFormation - Amazon CloudWatch Documentação Amazon CloudWatch Guia do usuário Tutorial: instalar usando um modelo em linha do CloudFormation Tutorial: instalar o atendente do CloudWatch usando o CloudFormation e Parameter Store Solução de problemas de instalação do atendente do CloudWatch com o CloudFormation Instalar o agente do CloudWatch em novas instâncias usando o CloudFormation Esta seção descreve como instalar o agente do CloudWatch em novas instâncias do Amazon EC2 usando o AWS CloudFormation. nota A Amazon fez o upload de diversos modelos do CloudFormation no GitHub que podem ajudar você a instalar e a atualizar o agente do CloudWatch em novas instâncias do Amazon EC2. Para obter mais informações sobre como usar o CloudFormation, consulte O que é o AWS CloudFormation? . O local do modelo é Implantar o atendente do Amazon CloudWatch em instâncias do EC2 usando o CloudFormation . Esse local inclui os diretórios inline e ssm . Cada um desses diretórios contém modelos de ambas as instâncias do Linux e do Windows. Os modelos no diretório inline têm a configuração do atendente do CloudWatch incorporada ao modelo do CloudFormation. Por padrão, os modelos do Linux coletam as métricas mem_used_percent e swap_used_percent , e os modelos do Windows coletam Memory % Committed Bytes In Use e Paging File % Usage . Para modificar esses modelos para coletar métricas diferentes, modifique a seção a seguir do modelo. O exemplo a seguir é do modelo para servidores do Linux. Siga o formato e a sintaxe do arquivo de configuração do atendente para fazer essas alterações. Para obter mais informações, consulte Criar ou editar manualmente o arquivo de configuração do atendente do CloudWatch . { "metrics": { "append_dimensions": { "AutoScalingGroupName":"$ { !aws:AutoScalingGroupName}", "ImageId":"$ { !aws:ImageId}", "InstanceId":"$ { !aws:InstanceId}", "InstanceType":"$ { !aws:InstanceType}" }, "metrics_collected": { "mem": { "measurement":[ "mem_used_percent" ] }, "swap": { "measurement":[ "swap_used_percent" ] } } } } nota Nos modelos em linha, todas as variáveis de espaço reservado devem ter um ponto de exclamação (!) antes delas como um caractere de escape. Veja isso no modelo de exemplo. Se você adicionar outras variáveis de espaço reservado, adicione um ponto de exclamação antes do nome. Os modelos no diretório ssm carregam um arquivo de configuração do atendente do Parameter Store. Para usar esses modelos, é necessário primeiro criar um arquivo de configuração e carregá-lo no Parameter Store. Em seguida, dê o nome Parameter Store do arquivo no modelo. Crie o arquivo de configuração manualmente ou usando o assistente. Para obter mais informações, consulte Criar o arquivo de configuração do atendente do CloudWatch . Use ambos os tipos de modelos para instalar o atendente do CloudWatch e atualizar a configuração do atendente. Para obter informações sobre como configurar o agente em um sistema que tenha o Linux com segurança aprimorada (SELinux) habilitado, consulte Configure o agente do CloudWatch com o Linux com segurança aprimorada (SELinux) . Tutorial: instalar e configurar o atendente do CloudWatch usando um modelo em linha do CloudFormation Esse tutorial mostra como usar o CloudFormation para instalar o atendente do CloudWatch em uma nova instância do Amazon EC2. Esse tutorial faz a instalação em uma nova instância que esteja executando o Amazon Linux 2 usando os modelos em linha, que não exigem o uso do arquivo de configuração JSON nem o Parameter Store. O modelo em linha inclui a configuração do atendente no modelo. Neste tutorial, você usa a configuração do atendente padrão contida no modelo. Após o procedimento para instalar o atendente, o tutorial continua com como atualizar o atendente. Para usar o CloudFormation para instalar o atendente do CloudWatch em uma nova instância Faça download do modelo do GitHub. Neste tutorial, baixe o modelo em linha do Amazon Linux 2 da seguinte forma: curl -O https://raw.githubusercontent.com/aws-cloudformation/aws-cloudformation-templates/main/Solutions/AmazonCloudWatchAgent/inline/amazon_linux.yaml Abra o console do CloudFormation em https://console.aws.amazon.com/cloudformation . Selecione Criar pilha . Em Choose a template (Escolher um modelo) , selecione Upload a template to Amazon S3 (Fazer upload de um modelo no Amazon S3) , escolha o modelo obtido por download e Next (Avançar) . Na página Specify Details (Especificar detalhes) , preencha os parâmetros a seguir e escolha Next (Próximo) : Stack name (Nome da pilha) : escolha um nome de pilha para a pilha do CloudFormation. IAMRole : escolha um perfil do IAM que tenha permissões para gravar métricas e logs e rastreamentos do CloudWatch. Para obter mais informações, consulte Pré-requisitos . InstanceAMI : escolha uma AMI que seja válida na região onde você pretende iniciar a pilha. InstanceType : escolha um tipo de instância válido. KeyName : para habilitar o acesso SSH à nova instância, escolha um par de chaves do Amazon EC2 existente. Se ainda não tiver um par de chaves do Amazon EC2, você poderá criar um no Console de gerenciamento da AWS. Para obter mais informações, consulte Pares de chaves do Amazon EC2 no Guia do usuário do Amazon EC2 . SSHLocation : especifica o intervalo de endereços IP que podem ser usados para se conectar à instância usando SSH. O padrão permite o acesso de qualquer endereço IP. Na página Options (Opções) , você pode optar por marcar seus recursos de pilha. Escolha Próximo . Na página Review (Revisão), revise as informações, confirme se a pilha pode criar recursos do IAM e selecione Create (Criar). Se atualizar o console, você verá que a nova pilha tem o status CREATE_IN_PROGRESS . Quando a instância é criada, é possível vê-la no console do Amazon EC2. Também é possível se conectar ao host e verificar o progresso. Use o seguinte comando para confirmar se o atendente está instalado: rpm -qa amazon-cloudwatch-agent Use o seguinte comando para confirmar se o atendente está em execução: ps aux | grep amazon-cloudwatch-agent O próximo procedimento demonstra como usar o CloudFormation para atualizar o atendente do CloudWatch usando um modelo em linha. O modelo em linha padrão coleta a métrica mem_used_percent . Neste tutorial, altere a configuração do atendente para interromper a coleta dessa métrica. Para usar o CloudFormation para atualizar o atendente do CloudWatch No modelo obtido por download no procedimento anterior, remova as seguintes linhas e salve o modelo: "mem": { "measurement": [ "mem_used_percent" ] }, Abra o console do CloudFormation em https://console.aws.amazon.com/cloudformation . No painel do CloudFormation, selecione a pilha criada e escolha Update Stack (Atualizar pilha) . Em Select Template (Selecionar modelo) , selecione Upload a template to Amazon S3 (Fazer upload de um modelo para o Amazon S3) , escolha o modelo modificado e Next (Avançar) . Na página Options (Opções) , escolha Next (Próximo) e, depois, Next (Próximo) . Na página Review (Revisar) , revise as informações e escolha Update (Atualizar) . Depois de algum tempo, você verá UPDATE_COMPLETE . Tutorial: instalar o atendente do CloudWatch usando o CloudFormation e Parameter Store Esse tutorial mostra como usar o CloudFormation para instalar o atendente do CloudWatch em uma nova instância do Amazon EC2. Este tutorial instala em uma nova instância na qual o Amazon Linux 2 esteja em execução usando um arquivo de configuração do atendente que você criou e salvo no Parameter Store. Após o procedimento para instalar o atendente, o tutorial continua com como atualizar o atendente. Para usar o CloudFormation para instalar o atendente do CloudWatch em uma nova instância usando uma configuração do Parameter Store Se ainda não o fez, baixe o pacote do atendente do CloudWatch em um de seus computadores para poder criar o arquivo de configuração do atendente. Para obter mais informações mais detalhadas e baixar o atendente com o Parameter Store, consulte Baixar o pacote do atendente do CloudWatch . Crie o arquivo de configuração do atendente e salve-o no Parameter Store. Para obter mais informações, consulte Criar o arquivo de configuração do atendente do CloudWatch . Faça download do modelo do GitHub da seguinte forma: curl -O https://raw.githubusercontent.com/awslabs/aws-cloudformation-templates/master/aws/solutions/AmazonCloudWatchAgent/ssm/amazon_linux.template Abra o console do CloudFormation em https://console.aws.amazon.com/cloudformation . Selecione Criar pilha . Em Choose a template (Escolher um modelo) , selecione Upload a template to Amazon S3 (Fazer upload de um modelo no Amazon S3) , escolha o modelo obtido por download e Next (Avançar) . Na página Specify Details (Especificar detalhes) , preencha os seguintes parâmetros conforme necessário e, depois, escolha Next (Próximo) : Stack name (Nome da pilha) : escolha um nome de pilha para a pilha do CloudFormation. IAMRole : escolha um perfil do IAM que tenha permissões para gravar métricas e logs e rastreamentos do CloudWatch. Para obter mais informações, consulte Pré-requisitos . InstanceAMI : escolha uma AMI que seja válida na região onde você pretende iniciar a pilha. InstanceType : escolha um tipo de instância válido. KeyName : para habilitar o acesso SSH à nova instância, escolha um par de chaves do Amazon EC2 existente. Se ainda não tiver um par de chaves do Amazon EC2, você poderá criar um no Console de gerenciamento da AWS. Para obter mais informações, consulte Pares de chaves do Amazon EC2 no Guia do usuário do Amazon EC2 . SSHLocation : especifica o intervalo de endereços IP que podem ser usados para se conectar à instância usando SSH. O padrão permite o acesso de qualquer endereço IP. SSMKey : especifica o arquivo de configuração do atendente que você criou e salvou no Parameter Store. Na página Options (Opções) , você pode optar por marcar seus recursos de pilha. Escolha Próximo . Na página Review (Revisão), revise as informações, confirme se a pilha pode criar recursos do IAM e selecione Create (Criar). Se atualizar o console, você verá que a nova pilha tem o status CREATE_IN_PROGRESS . Quando a instância é criada, é possível vê-la no console do Amazon EC2. Também é possível se conectar ao host e verificar o progresso. Use o seguinte comando para confirmar se o atendente está instalado: rpm -qa amazon-cloudwatch-agent Use o seguinte comando para confirmar se o atendente está em execução: ps aux | grep amazon-cloudwatch-agent O procedimento a seguir demonstra como usar o CloudFormation para atualizar o atendente do CloudWatch com uma configuração do atendente salva no Parameter Store. Para usar o CloudFormation para atualizar o atendente do CloudWatch com uma configuração no Parameter Store Altere o arquivo de configuração do atendente armazenado no Parameter Store para a nova configuração desejada. No modelo do CloudFormation obtido por download no tópico Tutorial: instalar o atendente do CloudWatch usando o CloudFormation e Parameter Store, altere o número da versão. Por exemplo, você poderia alterar VERSION=1.0 para VERSION=2.0 . Abra o console do CloudFormation em https://console.aws.amazon.com/cloudformation . No painel do CloudFormation, selecione a pilha criada e escolha Update Stack (Atualizar pilha) . Em Select Template (Selecionar modelo) , selecione Upload a template to Amazon S3 (Fazer upload de um modelo para o Amazon S3) , selecione o modelo recém-modificado e Next (Avançar) . Na página Options (Opções) , escolha Next (Próximo) e, depois, Next (Próximo) . Na página Review (Revisar) , revise as informações e escolha Update (Atualizar) . Depois de algum tempo, você verá UPDATE_COMPLETE . Solução de problemas de instalação do atendente do CloudWatch com o CloudFormation Esta seção ajuda a solucionar problemas na instalação e na atualização do atendente do CloudWatch usando o CloudFormation. Detectar quando uma atualização falha Se você usar o CloudFormation para atualizar a configuração do atendente do CloudWatch e usar uma configuração inválida, o atendente deixará de enviar métricas para o CloudWatch. Uma maneira rápida de verificar se uma atualização da configuração do atendente foi bem-sucedida é procurar no arquivo cfn-init-cmd.log . Em um servidor do Linux, o arquivo está localizado em /var/log/cfn-init-cmd.log . Em uma instância do Windows, o arquivo está localizado em C:\cfn\log\cfn-init-cmd.log . As métricas não foram encontradas Se você não vir métricas que deveria ver depois de instalar ou atualizar o atendente, confirme se o atendente está configurado para coletar essa métrica. Para fazer isso, verifique o arquivo amazon-cloudwatch-agent.json para garantir que a métrica esteja listada e que você esteja procurando no namespace de métrica correto. Para obter mais informações, consulte Arquivos e locais do atendente do CloudWatch . O Javascript está desativado ou não está disponível no seu navegador. Para usar a documentação da AWS, o Javascript deve estar ativado. Consulte as páginas de Ajuda do navegador para obter instruções. Convenções do documento Instalar o agente do CloudWatch em servidores on-premises Instalação do agente do CloudWatch com o complemento de observabilidade do EKS do Amazon CloudWatch ou com o chart do Helm Essa página foi útil? - Sim Obrigado por nos informar que estamos fazendo um bom trabalho! Se tiver tempo, conte-nos sobre o que você gostou para que possamos melhorar ainda mais. Essa página foi útil? - Não Obrigado por nos informar que precisamos melhorar a página. Lamentamos ter decepcionado você. Se tiver tempo, conte-nos como podemos melhorar a documentação. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/de_de/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html#cloudwatch-logs-overview | Was ist Amazon CloudWatch? - Amazon CloudWatch Was ist Amazon CloudWatch? - Amazon CloudWatch Dokumentation Amazon CloudWatch Benutzer-Leitfaden Betriebliche Transparenz mit Metriken, Alarmen und Dashboards Application Performance Monitoring (APM) Überwachung der Infrastruktur Protokolle sammeln, speichern und abfragen Verwenden Sie den CloudWatch Agenten, um Metriken, Protokolle und Traces von EC2 Amazon-Flotten zu sammeln Kontoübergreifende Überwachung Lösungskatalog CloudWatch Netzwerk-Überwachung Fakturierung und Kosten Ressourcen Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich. Was ist Amazon CloudWatch? Amazon CloudWatch überwacht Ihre Amazon Web Services (AWS) -Ressourcen und die Anwendungen, auf denen Sie laufen, AWS in Echtzeit und bietet zahlreiche Tools, mit denen Sie die Leistung, den Betriebszustand und die Ressourcennutzung Ihrer Anwendungen systemweit beobachten können. Themen Betriebliche Transparenz mit Metriken, Alarmen und Dashboards Application Performance Monitoring (APM) Überwachung der Infrastruktur Protokolle sammeln, speichern und abfragen Verwenden Sie den CloudWatch Agenten, um Metriken, Protokolle und Traces von EC2 Amazon-Flotten zu sammeln Kontoübergreifende Überwachung Lösungskatalog Netzwerk- und Internetüberwachung Fakturierung und Kosten CloudWatch Amazon-Ressourcen Betriebliche Transparenz mit Metriken, Alarmen und Dashboards Metriken erfassen und verfolgen wichtige Leistungsdaten in benutzerdefinierten Intervallen. Viele AWS Dienste melden Metriken automatisch an CloudWatch, und Sie können auch benutzerdefinierte Messwerte in CloudWatch Ihren Anwendungen veröffentlichen . Dashboards bieten eine einheitliche Ansicht Ihrer Ressourcen und Anwendungen mit Visualisierungen Ihrer Metriken und Protokolle an einem einzigen Ort. Sie können Dashboards auch konten- und regionsübergreifend teilen , um den Überblick über Ihre Abläufe zu verbessern. CloudWatch bietet kuratierte automatische Dashboards für viele AWS Dienste, sodass Sie sie nicht selbst erstellen müssen. Sie können Alarme einrichten, die Messwerte kontinuierlich anhand benutzerdefinierter CloudWatch Schwellenwerte überwachen. Sie können Sie automatisch vor Überschreitungen der Schwellenwerte warnen und auch automatisch auf Änderungen im Verhalten Ihrer Ressourcen reagieren, indem sie automatisierte Aktionen auslösen . Application Performance Monitoring (APM) Mit Application Signals können Sie die wichtigsten Leistungsindikatoren Ihrer Anwendungen wie Latenz, Fehlerraten und Anforderungsraten automatisch erkennen und überwachen, ohne dass manuelle Instrumentierung oder Codeänderungen erforderlich sind. Application Signals bietet auch kuratierte Dashboards, sodass Sie mit einem Minimum an Einrichtung mit der Überwachung beginnen können. CloudWatch Synthetics ergänzt dies, indem es Ihnen ermöglicht, Ihre Endgeräte proaktiv zu überwachen und APIs konfigurierbare Skripts, sogenannte Canaries , zu verwenden, die das Benutzerverhalten simulieren und Sie auf Verfügbarkeitsprobleme oder Leistungseinbußen aufmerksam machen, bevor sie sich auf echte Benutzer auswirken. Sie können CloudWatch RUM auch verwenden, um Leistungsdaten aus echten Benutzersitzungen zu sammeln. Verwenden Sie Service Level Objectives (SLOs) , CloudWatch um spezifische Zuverlässigkeitsziele für Ihre Anwendungen zu definieren, nachzuverfolgen und entsprechende Warnmeldungen zu erstellen. So können Sie Ihre Verpflichtungen zur Servicequalität einhalten, indem Sie Fehlerbudgets festlegen und die SLO-Einhaltung im Laufe der Zeit überwachen. Überwachung der Infrastruktur Viele AWS Dienste senden grundlegende Kennzahlen automatisch und CloudWatch kostenlos an. Services, die Metriken senden, sind hier aufgelistet . Darüber hinaus CloudWatch bietet es zusätzliche Überwachungsfunktionen für mehrere wichtige Teile der AWS Infrastruktur: Mit Database Insights können Sie die Leistungsmetriken von Datenbanken in Echtzeit überwachen, die Leistung von SQL-Abfragen analysieren und Probleme beim Laden von Datenbanken für AWS -Datenbankservices beheben. Lambda Insights bietet Metriken auf Systemebene für Lambda-Funktionen, darunter die Überwachung der Speicher- und CPU-Auslastung sowie die Erkennung und Analyse von Kaltstarts. Mit Container Insights können Sie Metriken aus containerisierten Anwendungen auf Amazon ECS-Clustern, Amazon EKS-Clustern und selbstverwalteten Kubernetes-Clustern auf Amazon sammeln und analysieren. EC2 Protokolle sammeln, speichern und abfragen CloudWatch Logs bietet eine Reihe leistungsstarker Funktionen für eine umfassende Protokollverwaltung und -analyse. Von AWS Diensten und benutzerdefinierten Anwendungen aufgenommene Protokolle werden zur einfachen Organisation in Protokollgruppen und Streams gespeichert. Verwenden Sie CloudWatch Logs Insights , um interaktive, schnelle Abfragen Ihrer Protokolldaten durchzuführen. Sie haben die Wahl zwischen drei Abfragesprachen, darunter SQL und PPL. Verwenden Sie die Erkennung von Protokollausreißern , um ungewöhnliche Muster in Protokollereignissen in einer Protokollgruppe zu finden, die auf Probleme hinweisen können. Erstellen Sie Metrikfilter , um numerische Werte aus Protokollen zu extrahieren und CloudWatch Metriken zu generieren, die Sie für Benachrichtigungen und Dashboards verwenden können. Richten Sie Abonnementfilter ein, um Protokolle in Echtzeit zu verarbeiten und zu analysieren oder sie an andere Services wie Amazon S3 oder Firehose weiterzuleiten. Verwenden Sie den CloudWatch Agenten, um Metriken, Protokolle und Traces von EC2 Amazon-Flotten zu sammeln Verwenden Sie den CloudWatch Agenten , um detaillierte Systemmetriken zu Prozessen, CPU, Arbeitsspeicher, Festplattennutzung und Netzwerkleistung von Ihren Flotten von EC2 Amazon-Instances und lokalen Servern zu sammeln. Sie können auch benutzerdefinierte Metriken aus Ihren Anwendungen sammeln und überwachen, Protokolle aus mehreren Quellen zusammenfassen und Alarme auf der Grundlage der gesammelten Daten konfigurieren. Sie können den Agenten auch verwenden, um GPU-Metriken zu sammeln. Der Agent unterstützt sowohl Windows- als auch Linux-Betriebssysteme und kann zur zentralen Konfigurationsverwaltung in Systems Manager integriert werden. Kontoübergreifende Überwachung CloudWatch Mit der kontenübergreifenden Observability können Sie ein zentrales Überwachungskonto einrichten, um Anwendungen zu überwachen und Fehler zu beheben, die sich über mehrere Konten erstrecken. Über das zentrale Konto können Sie Metriken, Protokolle und Ablaufverfolgungen von Quellkonten in Ihrer gesamten Organisation einsehen. Dieser zentralisierte Ansatz ermöglicht es Ihnen, kontenübergreifende Dashboards zu erstellen, Alarme einzurichten, die Metriken mehrerer Konten zu überwachen, und Ursachenanalysen über Kontogrenzen hinweg durchzuführen. Mit der CloudWatch kontenübergreifenden Observability können Sie Quellkonten entweder einzeln oder automatisch miteinander verknüpfen. AWS Organizations Lösungskatalog CloudWatch bietet einen Katalog leicht verfügbarer Konfigurationen, mit denen Sie schnell die Überwachung verschiedener AWS Dienste und gängiger Workloads wie Java Virtual Machines (JVM), NVIDIA GPU, Apache Kafka, Apache Tomcat und NGINX implementieren können. Diese Lösungen bieten gezielte Anleitungen, einschließlich Anweisungen zur Installation und Konfiguration des CloudWatch Agenten, zur Bereitstellung vordefinierter benutzerdefinierter Dashboards und zur Einrichtung entsprechender Alarme. Netzwerk- und Internetüberwachung CloudWatch bietet umfassende Netzwerk- und Internetüberwachungsfunktionen über CloudWatch Network Monitoring. Internet Monitor verwendet AWS globale Netzwerkdaten, um die Internetleistung und Verfügbarkeit zwischen Ihren Anwendungen und Endbenutzern zu analysieren. Mit einem Internetmonitor können Sie erhöhte Latenzzeiten oder regionale Störungen, die sich auf Ihre Kunden auswirken, erkennen oder Benachrichtigungen erhalten. Internetmonitore analysieren Ihre VPC-Flussprotokolle, um automatisierte Einblicke in die Muster und die Leistung des Netzwerkverkehrs zu erhalten. Sie können ebenfalls Vorschläge dazu erhalten, wie Sie die Anwendungsleistung für Ihre Clients optimieren können. Network Flow Monitor zeigt Informationen zur Netzwerkleistung an, die von einfachen Softwareagenten gesammelt wurden, die Sie auf Ihren Instances installieren. Mithilfe eines Flow Monitors können Sie schnell den Paketverlust und die Latenz Ihrer Netzwerkverbindungen über einen von Ihnen festgelegten Zeitraum visualisieren. Jeder Monitor generiert außerdem einen Netzwerkstatusindikator (Network Health Indicator, NHI), der Ihnen mitteilt, ob während des von Ihnen untersuchten Zeitraums AWS Netzwerkprobleme bei den Netzwerkströmen aufgetreten sind, die von Ihrem Monitor aufgezeichnet wurden. Wenn Sie eine Verbindung herstellen Direct Connect, können Sie synthetische Monitore in Network Synthetic Monitor verwenden, um die Netzwerkkonnektivität proaktiv zu überwachen, indem Sie synthetische Tests zwischen einer VPC und lokalen Endpunkten ausführen. Wenn Sie einen synthetischen Monitor erstellen, geben Sie Tests an, indem Sie ein VPC-Subnetz und lokale IP-Adressen angeben. AWS erstellt und verwaltet die Infrastruktur im Hintergrund, die für die Durchführung von Messungen der Umlaufzeit und des Paketverlusts mit den Sonden erforderlich ist. Diese Tests erkennen Probleme mit Konnektivität, DNS und Latenz, bevor sie sich auf Ihre Anwendungen auswirken, sodass Sie Maßnahmen ergreifen können, um die Erfahrung Ihrer Endbenutzer zu verbessern. Fakturierung und Kosten Vollständige Informationen zu den CloudWatch Preisen finden Sie unter CloudWatch Amazon-Preise . Informationen, die Ihnen helfen können, Ihre Rechnung zu analysieren und möglicherweise Kosten zu optimieren und zu senken, finden Sie unter CloudWatch Kosten analysieren, optimieren und reduzieren . CloudWatch Amazon-Ressourcen Die folgenden verwandten Ressourcen bieten Ihnen nützliche Informationen für die Arbeit mit diesem Service. Ressource Description Amazon CloudWatch FAQs Die Webseite „Häufig gestellte Fragen” deckt alle wichtigsten Fragen ab, die Entwickler zu diesem Produkt gestellt haben. AWS Entwicklerzentrum Ein zentraler Ausgangspunkt, um Dokumentation, Codebeispiele, Versionshinweise und andere Informationen zu finden, mit denen Sie innovative Anwendungen entwickeln können AWS. AWS-Managementkonsole Mit der Konsole können Sie die meisten Funktionen von Amazon CloudWatch und verschiedenen anderen AWS Angeboten ohne Programmierung ausführen. CloudWatch Amazon-Diskussionsforen Community-basiertes Forum für Entwickler zur Diskussion technischer Fragen zu Amazon. CloudWatch AWS Support Die zentrale Anlaufstelle für die Erstellung und Verwaltung Ihrer AWS Support Fälle. Enthält auch Links zu anderen hilfreichen Ressourcen wie Foren, technischen InformationenFAQs, Servicestatus und AWS Trusted Advisor. CloudWatch Amazon-Produktinformationen Die primäre Webseite für Informationen über Amazon CloudWatch. Kontakt Eine zentrale Anlaufstelle für Anfragen zu AWS Abrechnung, Konto, Veranstaltungen, Missbrauch usw. JavaScript ist in Ihrem Browser nicht verfügbar oder deaktiviert. Zur Nutzung der AWS-Dokumentation muss JavaScript aktiviert sein. Weitere Informationen finden auf den Hilfe-Seiten Ihres Browsers. Dokumentkonventionen Einrichten Hat Ihnen diese Seite geholfen? – Ja Vielen Dank, dass Sie uns mitgeteilt haben, dass wir gute Arbeit geleistet haben! Würden Sie sich einen Moment Zeit nehmen, um uns mitzuteilen, was wir richtig gemacht haben, damit wir noch besser werden? Hat Ihnen diese Seite geholfen? – Nein Vielen Dank, dass Sie uns mitgeteilt haben, dass diese Seite überarbeitet werden muss. Es tut uns Leid, dass wir Ihnen nicht weiterhelfen konnten. Würden Sie sich einen Moment Zeit nehmen, um uns mitzuteilen, wie wir die Dokumentation verbessern können? | 2026-01-13T09:29:26 |
https://foundryco.com/cookie-policy/ | Foundry Cookie Policy & GDPR Compliance Notice | Foundry Skip to content Search Contact us Translation available Select an experience Japan Global Search for: Search Brands CIO CSO InfoWorld Network World Computerworld Macworld PCWorld Tech Advisor TechHive ChannelWorld Specialty brands CIO100 CSO50 All brands Audiences Artificial intelligence Cloud Security Hardware Software All audiences Solutions Ads Audiences Lead gen Intent data Brand experiences Interactive storytelling Events Partner marketing Content creation Affiliate marketing All solutions Research Technology insights AI Priorities CIO Tech Priorities Cloud Computing Security Priorities State of the CIO Buying process Customer Engagement Role & Influence Partner Marketing All research Resources Resources Tools for marketers Blog Videos Customer stories Developer portal The Intersection newsletter All resources About us Press Awards Work here Privacy / Compliance Licensing About Us Brands CIO CSO InfoWorld Network World Computerworld Macworld PCWorld Tech Advisor TechHive ChannelWorld Specialty brands CIO 100 CSO50 All brands Audiences Artificial intelligence Cloud Security Hardware Software All audiences Solutions Ads Lead gen Intent data Brand experiences Interactive storytelling Events Partner marketing Content creation Affiliate marketing All solutions Research Technology insights AI Priorities CIO Tech Priorities Cloud Computing Security Priorities State of the CIO Buying process Customer Engagement Role & Influence Partner Marketing All research Resources Resources Tools for marketers Blog Videos Customer stories Developer Portal The Intersection newsletter All Resources About us Press Awards Work here Privacy / Compliance Licensing About Us Contact Log in Edition - Select an experience Japan Global Cookie Policy FoundryCo.com This website and associated websites (“Website”) are owned and maintained by: FoundryCo, Inc. 501 2nd Street, Suite 650 San Francisco California 94107 USA Welcome! This Cookie Policy applies to the collection of certain information via cookies and other online similar technologies (“ Cookie(s) ”) when you visit a website operated by FoundryCo, Inc. (“ Foundry ” or “ we ”) or members of the Foundry group of companies (“Foundry Group Undertakings”). A full list of Foundry Group Undertakings, including contact details, is available here . This Cookie Policy describes Foundry’s policies and practices regarding its use of Cookies collected on this website. We care about your privacy and want you to understand how we collect, use and protect the information you share with us. More information about your privacy rights can be found in the Privacy Policy . What Are Cookies? Cookies are small text files that can be stored on your computer, tablet, or mobile device when you visit a Foundry website . Information collected by Cookies may qualify as personal data. Cookies used by Foundry may identify you as a unique user by means of a tracking identification. Foundry and/or Foundry Group Undertakings may place Cookies on your device when visiting a Foundry website for different purposes as described below. You may also receive external Cookies from third parties. Our marketing partners collect web viewing data to ensure that you see the most relevant advertising. More information about our partners and third-party Cookies can be found on our Privacy Settings tab in the footer of this page. In addition to using Cookies, Foundry websites may feature tools that allow sharing through third-party social media platforms, such as Facebook, X, or LinkedIn. Any personal information you share through these platforms may be used and collected by third parties on such platforms, and such interactions are subject to the privacy policies of the respective third parties. Why Do We Use Cookies? We may use several types of Cookies for the following purposes: Storing and/or accessing information on your device: we may store and access Cookies, device identifiers, or similar technologies (e.g., login-based, randomly assigned, or network-based identifiers), along with information such as browser type, language, screen size, and supported technologies on your device. This allows us to recognize your device each time it connects to our website or apps. Precise geolocation and device characteristics: we may collect precise geolocation data and use device scanning to identify your device characteristics. Personalized advertising and content: we may personalize advertising and content presented to you based on your profile. Your activity may be used to build or enhance your profile for personalized experiences. We may measure the performance of advertising and content and generate reports based on your and others’ activity. This data also helps improve our products and services. Social media: we may use Cookies and pixels, such as those from Facebook, X, and LinkedIn, to enable social media functionality. Analytics storage: we may use Cookies to help us understand how visitors interact with our website by collecting and analyzing usage data (e.g., visit duration) to improve functionality and user experience. The complete list of purposes and why we use Cookies is available on our Privacy Settings tab in the footer of this page. How Can You Change Your Cookie Preferences? You may update your Cookie preferences any time on our Privacy Settings tab in the footer of this page. Please keep in mind that if you disable certain Cookies, some features of Foundry websites may not operate as intended. Interactive Advertising Bureau (IAB) Framework Depending on your location, local data protection and/or electronic communications privacy laws may apply. To help ensure compliance with such requirements, Foundry participates in frameworks established by the Interactive Advertising Bureau (IAB), which offers guidance and policies to promote transparency and uphold user consent standards. In the European Union, Foundry is registered as a vendor under the IAB Europe Transparency & Consent Framework (TCF), which supports compliance with the General Data Protection Regulation (GDPR) and the ePrivacy Directive. Foundry’s identification number within the TCF is 1313. For more information about the TCF, please visit the IAB Europe website . In the United States, Foundry participates in the IAB Tech Lab Global Privacy Protocol (GPP), which is designed to ensure compliance with US data privacy laws. For more information about the GPP framework, please visit the IAB Tech Lab website . All Cookie banners implemented on Foundry’s websites are compliant with the TCF and GPP, as applicable of the location of the visitor. Cookie Policy Changes and Updates We reserve the right to amend this Cookie Policy from time to time as necessary. We will post a notice on this website if there are material changes to the Cookie Policy, but you should also check this Website periodically to review the current policy. An updated version of this Cookie Policy will be published on our website. This Cookie Policy was last updated in September 2025. How can we help? Get in touch If you have any questions, concerns, or complaints about Foundry’s practices around Cookies or this Cookie Policy, we encourage you to get in touch with our appointed Data Protection Officer at privacy@foundryco.com Last Updated: [September 2025] Download Cookie Policy External link Our brands Solutions Research Resources Events About Newsletter Contact us Work here Sitemap Topics Cookies: First-party & third-party Generative AI sponsorships Intent data IP address intelligence Reverse IP lookup Website visitor tracking Legal Terms of Service Privacy / Compliance Environmental Policy Copyright Notice Licensing CCPA IAB Europe TCF Regions ASEAN Australia & New Zealand Central Europe Germany India Middle East, Turkey, & Africa Nordics Southern Europe Western Europe Facebook Twitter LinkedIn ©2026 FoundryCo, Inc. All Rights Reserved. Privacy Policy Ad Choices Privacy Settings California: Do Not Sell My Information | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/zh_tw/AmazonCloudWatch/latest/monitoring/Solution-JVM-On-EC2.html | CloudWatch 解決方案:Amazon EC2 上的 JVM 工作負載 - Amazon CloudWatch CloudWatch 解決方案:Amazon EC2 上的 JVM 工作負載 - Amazon CloudWatch 文件 Amazon CloudWatch 使用者指南 要求 優勢 成本 此解決方案的 CloudWatch 代理程式組態 部署解決方案的代理程式 建立 JVM 解決方案儀表板 本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。 CloudWatch 解決方案:Amazon EC2 上的 JVM 工作負載 此解決方案可協助您透過 CloudWatch 代理程式,為在 EC2 執行個體上執行的 JVM 應用程式設定開箱即用的指標收集功能。除此之外,還可協助您設定預先設定的 CloudWatch 儀表板。如需所有 CloudWatch 可觀測性解決方案的一般資訊,請參閱 CloudWatch 可觀測性解決方案 。 主題 要求 優勢 成本 此解決方案的 CloudWatch 代理程式組態 部署解決方案的代理程式 建立 JVM 解決方案儀表板 要求 此解決方案適用於下列情況: 支援的版本:Java LTS 版本 8、11、17 和 21 運算:Amazon EC2 在特定的 JVM 工作負載中最多支援 500 個 EC2 執行個體 AWS 區域 CloudWatch 代理程式的最新版本 EC2 執行個體上安裝的 SSM 代理程式 注意 AWS Systems Manager (SSM 代理程式) 預先安裝在由 AWS 和信任的第三方提供的一些 Amazon Machine Image AMIs) 上。如果未安裝代理程式,您可以依循適用於您作業系統類型的程序手動安裝。 在適用於 Linux 的 EC2 執行個體上手動安裝和解除安裝 SSM 代理程式 在適用於 macOS 的 EC2 執行個體上手動安裝和解除安裝 SSM 代理程式 在適用於 Windows Server 的 EC2 執行個體上手動安裝和解除安裝 SSM 代理程式 優勢 此解決方案提供 JVM 監控功能,針對下列使用案例提供寶貴洞察: 監控 JVM 堆積和非堆積記憶體用量。 分析執行緒和類別載入以偵測並行問題。 追蹤垃圾回收以識別記憶體洩漏問題。 在同一帳戶下,切換透過解決方案設定的不同 JVM 應用程式。 以下是此解決方案的主要優勢: 透過 CloudWatch 代理程式組態自動執行 JVM 指標收集,免除手動檢測需求。 提供預先設定的整合式 CloudWatch 儀表板,專門用於監控 JVM 指標。儀表板將自動處理透過此解決方案設定之新 JVM EC2 執行個體產生的指標,即使您第一次建立儀表板時這些指標不存在。透過它,您還可以將指標分組到邏輯應用程式中,以便於監控和管理。 下圖是此解決方案之儀表板的範例。 成本 此解決方案會在您的帳戶中建立並使用資源。您需要支付標準用量的費用,包括下列項目: CloudWatch 代理程式收集的所有指標以自訂指標計費。此解決方案使用的指標數目取決於 EC2 主機的數目。 為解決方案設定的每個 JVM 主機總共會發布 18 個指標,外加一項指標 ( disk_used_percent ),其指標數目取決於該主機的路徑數目。 一個自訂儀表板。 CloudWatch 代理程式請求的 API 操作,用於發布指標。在此解決方案的預設組態下,CloudWatch 代理程式每分鐘會針對每個 EC2 主機呼叫 PutMetricData 一次。這表示在一個 30 天的月份,針對每個 EC2 主機,系統將呼叫 PutMetricData API 30*24*60=43,200 次。 如需 CloudWatch 定價的詳細資訊,請參閱 Amazon CloudWatch 定價 。 定價計算器可協助您估算使用此解決方案的每月大致費用。 使用定價計算器來估算解決方案的每月費用 開啟 Amazon CloudWatch 定價計算器 。 對於 選擇區域 ,選取您要將解決方案部署到的區域。 在 指標 區段中,對於 指標數目 ,輸入 (18 + average number of disk paths per EC2 host) * number of EC2 instances configured for this solution 。 在 API 區段中,對於 API 請求數目 ,輸入 43200 * number of EC2 instances configured for this solution 。 依預設,CloudWatch 代理程式每分鐘會為每個 EC2 主機執行 PutMetricData 操作一次。 在 儀表板和警示 區段中,對於 儀表板數目 ,輸入 1 。 可以在定價計算器底部查看每月預估費用。 此解決方案的 CloudWatch 代理程式組態 CloudWatch 代理程式是在您的伺服器和容器化環境中持續自主執行的軟體。它從您的基礎結構和應用程式收集指標、日誌和追蹤,並將其傳送到 CloudWatch 和 X-Ray。 如需 CloudWatch 代理程式的詳細資訊,請參閱 使用 CloudWatch 代理程式收集指標、日誌和追蹤 。 此解決方案中的代理程式組態會收集解決方案的基礎指標。CloudWatch 代理程式可以設定為,收集的 JVM 指標數多於儀表板預設顯示的指標數。如需您可以收集之所有 JVM 指標的清單,請參閱 收集 JVM 指標 。如需 CloudWatch 代理程式組態的一般資訊,請參閱 CloudWatch 代理程式收集的指標 。 公開 JVM 應用程式的 JMX 連接埠 CloudWatch 代理程式依賴 JMX 收集與 JVM 程序相關的指標。為此,您必須從 JVM 應用程式公開 JMX 連接埠。有關公開 JMX 連接埠的作業說明,依您用於 JVM 應用程式的工作負載類型而定。請參閱您應用程式的文件,尋找這些說明。 一般而言,若要啟用 JMX 連接埠以進行監控和管理,可以為 JVM 應用程式設定下列系統屬性。請務必指定未使用的連接埠號碼。下列範例設定的是未經驗證的 JMX。如果依據安全政策/規定,您必須透過密碼身分驗證機或 SSL 啟用 JMX 以進行遠端存取,請參閱 JMX 文件 來設定所需的屬性。 -Dcom.sun.management.jmxremote -Dcom.sun.management.jmxremote.port= port-number -Dcom.sun.management.jmxremote.authenticate=false -Dcom.sun.management.jmxremote.ssl=false 檢閱應用程式的啟動指令碼和設定檔,確定新增這些引數的最佳位置。當您從命令列執行 .jar 檔案時,此命令可能如下所示,其中 pet-search.jar 是應用程式 jar 的名稱。 $ java -jar -Dcom.sun.management.jmxremote -Dcom.sun.management.jmxremote.port=9999 -Dcom.sun.management.jmxremote.authenticate=false -Dcom.sun.management.jmxremote.ssl=false pet-search.jar 此解決方案的代理程式組態 代理程式收集的指標在代理程式組態中定義。解決方案提供代理程式組態,以收集適用於解決方案儀表板的建議指標與適當維度。 部署解決方案的步驟稍後會在 部署解決方案的代理程式 中說明。以下資訊旨在協助您了解如何為您的環境自訂代理程式組態。 您必須為環境自訂下列代理程式組態的部分項目: JMX 連接埠號碼是您在本文件上一節中設定的連接埠號碼。它位於組態的 endpoint 行中。 ProcessGroupName – 為 ProcessGroupName 維度提供有意義的名稱。這些名稱應該代表執行相同應用程式或程序之 EC2 執行個體所屬的叢集、應用程式或服務分組。這可協助您將屬於同個 JVM 程序群組之執行個體的指標進行分組,在解決方案儀表板中提供對叢集、應用程式及服務效能的統一檢視。 例如,如果您有兩個 Java 應用程式在同個帳戶中執行,一個用於 order-processing 應用程式,另一個用於 inventory-management 應用程式,則應該在每個執行個體的代理程式組態中相應地設定 ProcessGroupName 維度。 對於 order-processing 應用程式執行個體,請設定 ProcessGroupName=order-processing 。 對於 inventory-management 應用程式執行個體,請設定 ProcessGroupName=inventory-management 。 當您遵循這些準則時,解決方案儀表板會依 ProcessGroupName 維度自動將指標分組。儀表板將包含下拉式清單選項,供您選取並檢視特定程序群組的指標,讓您能分別監控個別程序群組的效能。 JVM 主機的代理程式組態 請在部署 Java 應用程式的 EC2 執行個體上,使用下列 CloudWatch 代理程式組態。組態將儲存為 SSM 參數儲存區中的參數,如稍後的 步驟 2:將建議的 CloudWatch 代理程式設定檔儲存在 Systems Manager 參數儲存區中 中所述。 將 ProcessGroupName 替換為您的程序群組名稱。將 port-number 替換為您 Java 應用程式的 JMX 連接埠。如果是透過密碼身分驗證或 SSL 啟用 JMX 以進行遠端存取,請參閱 收集 Java Management Extensions (JMX) 指標 以取得有關視需要在代理程式組態中設定 TLS 或授權的資訊。 此組態中顯示的 EC2 指標 (在 JMX 區塊外部顯示的組態) 僅適用於 Linux 和 macOS 執行個體。如果您使用的是 Windows 執行個體,可以選擇在組態中省略這些指標。如需在 Windows 執行個體上收集之指標的資訊,請參閱 由 CloudWatch 代理程式在 Windows Server 執行個體上收集的指標 。 { "metrics": { "namespace": "CWAgent", "append_dimensions": { "InstanceId": "$ { aws:InstanceId}" }, "metrics_collected": { "jmx": [ { "endpoint": "localhost: port-number ", "jvm": { "measurement": [ "jvm.classes.loaded", "jvm.gc.collections.count", "jvm.gc.collections.elapsed", "jvm.memory.heap.committed", "jvm.memory.heap.max", "jvm.memory.heap.used", "jvm.memory.nonheap.committed", "jvm.memory.nonheap.max", "jvm.memory.nonheap.used", "jvm.threads.count" ] }, "append_dimensions": { "ProcessGroupName": " ProcessGroupName " } } ], "disk": { "measurement": [ "used_percent" ] }, "mem": { "measurement": [ "used_percent" ] }, "swap": { "measurement": [ "used_percent" ] }, "netstat": { "measurement": [ "tcp_established", "tcp_time_wait" ] } } } } 部署解決方案的代理程式 安裝 CloudWatch 代理程式的方法有很多種,具體取決於使用案例。建議您使用 Systems Manager 安裝此解決方案。它提供主控台體驗,並可讓您更輕鬆地管理單一 AWS 帳戶中的受管伺服器機群。本節說明採用 Systems Manager,適用於您沒有以現有組態執行 CloudWatch 代理程式的情況。您可以依循 確認 CloudWatch 代理程式正在執行中 中的步驟,檢查 CloudWatch 代理程式是否正在執行。 如果您已在部署工作負載和管理代理程式組態的 EC2 主機上執行 CloudWatch 代理程式,可以略過本節中的說明,並依循現有部署機制來更新組態。請務必將 JVM 的代理程式組態與您現有的代理程式組態合併,然後部署合併的組態。如果您使用 Systems Manager 來儲存和管理 CloudWatch 代理程式的組態,可以將組態合併到現有的參數值。如需詳細資訊,請參閱 管理 CloudWatch 代理程式設定檔 。 注意 使用 Systems Manager 部署下列 CloudWatch 代理程式組態,將取代或覆寫 EC2 執行個體上的任何現有 CloudWatch 代理程式組態。您可以根據自己的特定環境或使用案例修改此組態。本解決方案中定義的指標,是推薦儀表板需要滿足的最低要求。 部署程序包含以下步驟: 步驟 1:確定目標 EC2 執行個體具有所需的 IAM 許可。 步驟 2:將建議的代理程式設定檔儲存在 Systems Manager 參數儲存區中。 步驟 3:使用 CloudFormation 堆疊在一或多個 EC2 執行個體上安裝 CloudWatch 代理程式。 步驟 4:確認已正確完成代理程式設定。 步驟 1:確定目標 EC2 執行個體具有所需的 IAM 許可 您必須授與 Systems Manager 安裝和設定 CloudWatch 代理程式的許可。還必須授與 CloudWatch 代理程式從 EC2 執行個體發布遙測到 CloudWatch 的許可。確定連結至執行個體的 IAM 角色已連結 CloudWatchAgentServerPolicy 和 AmazonSSMManagedInstanceCore IAM 政策。 建立角色之後,將角色連結至 EC2 執行個體。請依循 使用 IAM 角色啟動執行個體 中的步驟,在啟動新的 EC2 執行個體時連結角色。若要將角色連結至現有的 EC2 執行個體,請依循 將 IAM 角色連結至執行個體 中的步驟。 步驟 2:將建議的 CloudWatch 代理程式設定檔儲存在 Systems Manager 參數儲存區中 參數儲存區透過安全地儲存和管理組態參數,簡化在 EC2 執行個體上安裝 CloudWatch 代理程式的流程,無需使用硬式編碼值。這可確保部署程序更安全、更靈活,實現集中式管理,並能更輕鬆地更新多個執行個體的組態。 依循下列步驟,將建議的 CloudWatch 代理程式設定檔儲存為參數儲存區中的參數。 建立 CloudWatch 代理程式設定檔作為參數 在 https:// https://console.aws.amazon.com/systems-manager/ 開啟 AWS Systems Manager 主控台。 從導覽窗格中,選擇 應用程式管理 、 參數儲存區 。 依循下列步驟為組態建立新的參數。 選擇 Create parameter (建立參數) 。 在 名稱 方塊中,輸入您將用於在後續步驟中引用 CloudWatch 代理程式設定檔的名稱。例如 AmazonCloudWatch-JVM-Configuration 。 (選用) 在 描述 方塊中,輸入參數描述。 對於 參數層 ,選擇 標準 。 在 類型 選擇 字串 。 對於 資料類型 ,選擇 文字 。 在 值 方塊中,貼上 JVM 主機的代理程式組態 中列示的對應 JSON 區塊。務必依循說明自訂分組維度值和連接埠號碼。 選擇 Create parameter (建立參數) 。 步驟 3:安裝 CloudWatch 代理程式並使用 CloudFormation 範本套用組態 您可以使用 AWS CloudFormation 安裝代理程式,並將其設定為使用您在先前步驟中建立的 CloudWatch 代理程式組態。 為此解決方案安裝和設定 CloudWatch 代理程式 使用此連結開啟 CloudFormation 快速建立堆疊 精靈:https:// https://console.aws.amazon.com/cloudformation/home?#/stacks/quickcreate?templateURL=https://aws-observability-solutions-prod-us-east-1.s3.us-east-1.amazonaws.com/CloudWatchAgent/CFN/v1.0.0/cw-agent-installation-template-1.0.0.json。 確認主控台上選取的區域是執行 JVM 工作負載的區域。 對於 堆疊名稱 ,輸入可識別此堆疊的名稱,例如 CWAgentInstallationStack 。 在 參數 區段中,執行以下動作: 對於 CloudWatchAgentConfigSSM ,輸入您先前建立之代理程式組態的 Systems Manager 參數名稱,例如 AmazonCloudWatch-JVM-Configuration 。 若要選取目標執行個體,您有兩個選項。 對於 InstanceIds ,指定以逗號分隔的執行個體 ID 清單,列出您想要使用此組態安裝 CloudWatch 代理程式的執行個體 ID。您可以列出一個或多個執行個體。 若要大規模部署,可以指定 TagKey 和對應的 TagValue ,以鎖定使用此標籤和值的所有 EC2 執行個體。指定 TagKey 時,必須指定對應的 TagValue 。(對於 Auto Scaling 群組,請為 TagKey 指定 aws:autoscaling:groupName ,並為 TagValue 指定 Auto Scaling 群組名稱,以部署到 Auto Scaling 群組內的所有執行個體。) 如果您同時指定 InstanceIds 和 TagKeys 參數,系統將以 InstanceIds 為準,並忽略標籤。 檢閱設定,然後選擇 建立堆疊 。 如果想要先編輯範本檔案以進行自訂,請選擇 建立堆疊精靈 下的 上傳範本檔案 選項,以上傳經編輯的範本。如需詳細資訊,請參閱在 CloudFormation 主控台上建立堆疊 。可以使用以下連結下載範本: https://aws-observability-solutions-prod-us-east-1.s3.us-east-1.amazonaws.com/CloudWatchAgent/CFN/v1.0.0/cw-agent-installation-template-1.0.0.json 。 注意 完成這個步驟後,此 Systems Manager 參數將與目標執行個體中執行的 CloudWatch 代理程式關聯。這表示: 如果刪除 Systems Manager 參數,代理程式將停止運作。 如果編輯 Systems Manager 參數,組態變更會自動套用至代理程式,排程頻率預設為 30 天。 如果想要即刻將變更套用至此 Systems Manager 參數,必須再次執行此步驟。如需關於關聯的更多資訊,請參閱 在 Systems Manager 中使用關聯 。 步驟 4:確認代理程式設定已正確設定 您可以依循 確認 CloudWatch 代理程式正在執行中 中的步驟,檢查 CloudWatch 代理程式是否已安裝。若 CloudWatch 代理程式未安裝且未執行,請確認您已正確完成所有設定。 請確定您已連結具有 EC2 執行個體正確許可的角色,如 步驟 1:確定目標 EC2 執行個體具有所需的 IAM 許可 中所述。 請確定您已正確設定 Systems Manager 參數的 JSON。請遵循 使用 安裝 CloudWatch 代理程式的故障診斷 CloudFormation 中的步驟。 若所有設定皆正確無誤,您應可看到 JVM 指標已發布至 CloudWatch。可以檢查 CloudWatch 主控台,以確認系統是否正在發布這些指標。 驗證 JVM 指標是否已發布至 CloudWatch 透過 https://console.aws.amazon.com/cloudwatch/ 開啟 CloudWatch 主控台。 依序選擇 指標 、 所有指標 。 請確定您已選取部署解決方案的區域,然後選擇 自訂命名空間 、 CWAgent 。 搜尋 JVM 主機的代理程式組態 中提到的指標,例如 jvm.memory.heap.used 。如果您看到這些指標的結果,則指標會發布至 CloudWatch。 建立 JVM 解決方案儀表板 此解決方案提供的儀表板會顯示伺服器底層 Java 虛擬機器 (JVM) 的指標。它透過彙總和呈現所有執行個體的指標來提供 JVM 的概觀,並提供整體運作狀態和操作狀態的高階摘要。此外,儀表板會顯示每個指標的主要貢獻因子 (每個指標小工具的前 10 個因子) 明細。這可協助您快速識別對觀測指標有重大貢獻的極端值或執行個體。 解決方案儀表板不會顯示 EC2 指標。若要檢視 EC2 指標,您需要使用 EC2 自動儀表板查看 EC2 代售指標,並使用 EC2 主控台儀表板查看 CloudWatch 代理程式收集的 EC2 指標。如需 AWS 服務自動儀表板的詳細資訊,請參閱 檢視單一 AWS 服務的 CloudWatch 儀表板 。 若要建立儀表板,可以使用下列選項: 使用 CloudWatch 主控台建立儀表板。 使用 AWS CloudFormation 主控台部署儀表板。 下載 AWS CloudFormation 基礎設施做為程式碼,並將其整合為持續整合 (CI) 自動化的一部分。 透過使用 CloudWatch 主控台建立儀表板,您可以在實際建立和收費之前預覽儀表板。 注意 在此解決方案 CloudFormation 中使用 建立的儀表板會顯示部署解決方案的區域指標。請務必在發佈 JVM 指標的區域中建立 CloudFormation 堆疊。 若 CloudWatch 代理程式指標發布至 CWAgent 之外的命名空間 (例如您已提供自訂命名空間),您需要更改 CloudFormation 設定,將 CWAgent 替換為您使用的自訂命名空間。 透過 CloudWatch 主控台建立儀表板 注意 解決方案儀表板目前僅顯示 G1 垃圾回收器的垃圾回收相關指標,G1 垃圾回收器是最新 Java 版本的預設回收器。如果您採用其他垃圾回收演算法,則與垃圾回收相關的小工具將保持空白狀態。不過,您可以透過變更儀表板 CloudFormation 範本,並將適當的垃圾回收類型套用至垃圾回收相關指標的名稱維度,自訂這些小工具。例如,如果您使用的是平行垃圾回收機制,請將垃圾回收計數指標 jvm.gc.collections.count 的 name=\"G1 Young Generation\" 變更為 name=\"Parallel GC\" 。 使用此連結開啟 CloudWatch 主控台 建立儀表板 : https://console.aws.amazon.com/cloudwatch/home?#dashboards?dashboardTemplate=JvmOnEc2&referrer=os-catalog 。 確認主控台上選取的區域是執行 JVM 工作負載的區域。 輸入儀表板的名稱,然後選擇 建立儀表板 。 為方便區分此儀表板與其他區域的類似儀表板,建議在儀表板名稱中包含區域名稱,例如 JVMDashboard-us-east-1 。 預覽儀表板,然後選擇 儲存 以建立儀表板。 透過 建立儀表板 CloudFormation 使用此連結開啟 CloudFormation 快速建立堆疊 精靈:https:// https://console.aws.amazon.com/cloudformation/home?#/stacks/quickcreate?templateURL=https://aws-observability-solutions-prod-us-east-1.s3.us-east-1.amazonaws.com/JVM_EC2/CloudWatch/CFN/v1.0.0/dashboard-template-1.0.0.json。 確認主控台上選取的區域是執行 JVM 工作負載的區域。 對於 堆疊名稱 ,輸入可識別此堆疊的名稱,例如 JVMDashboardStack 。 在 參數 區段的 DashboardName 參數下,指定儀表板名稱。 為方便區分此儀表板與其他區域的類似儀表板,建議在儀表板名稱中包含區域名稱,例如 JVMDashboard-us-east-1 。 在 功能和轉換 下,確認轉換的存取功能。請注意,CloudFormation 不會新增任何 IAM 資源。 檢閱設定,然後選擇 建立堆疊 。 堆疊狀態變為 CREATE_COMPLETE 之後,請在所建立堆疊下方選擇 資源 索引標籤,然後選擇 實體 ID 下方的連結以前往儀表板。也可以在 CloudWatch 主控台中存取儀表板,方法是選擇主控台左側導覽窗格中的 儀表板 ,然後在 自訂儀表板 下尋找儀表板名稱。 如果想要編輯範本檔案以針對任何用途自訂範本檔案,可以使用 建立堆疊精靈 下的 上傳範本檔案 選項來上傳經編輯的範本。如需詳細資訊,請參閱在 CloudFormation 主控台上建立堆疊 。可以使用此連結下載範本: https://aws-observability-solutions-prod-us-east-1.s3.us-east-1.amazonaws.com/JVM_EC2/CloudWatch/CFN/v1.0.0/dashboard-template-1.0.0.json 。 注意 解決方案儀表板目前僅顯示 G1 垃圾回收器的垃圾回收相關指標,G1 垃圾回收器是最新 Java 版本的預設回收器。如果您採用其他垃圾回收演算法,則與垃圾回收相關的小工具將保持空白狀態。不過,您可以透過變更儀表板 CloudFormation 範本,並將適當的垃圾回收類型套用至垃圾回收相關指標的名稱維度,自訂這些小工具。例如,如果您使用的是平行垃圾回收機制,請將垃圾回收計數指標 jvm.gc.collections.count 的 name=\"G1 Young Generation\" 變更為 name=\"Parallel GC\" 。 開始使用 JVM 儀表板 以下是您可以嘗試使用新 JVM 儀表板處理的一些任務。這些任務可讓您驗證儀表板是否運作正常,並提供實際操作經驗,協助您運用儀表板監控 JVM 程序群組。當您嘗試這些功能時,可逐漸熟悉儀表板的操作介面,並學會解讀視覺化的指標資料。 選取程序群組 使用 JVM 程序群組名稱 下拉式清單,選取要監控的程序群組。儀表板會自動更新,以顯示所選程序群組的指標。如果您有多個 Java 應用程式或環境,每個都可能被視為獨立的程序群組。選取適當的程序群組可確保您檢視的是特定於要分析之應用程式或環境的指標。 檢閱記憶體用量 在儀表板概觀區段中,尋找 堆積記憶體用量百分比 和 非堆積記憶體用量百分比 小工具。這些工具顯示所選程序群組中所有 JVM 正在使用之堆積和非堆積記憶體的百分比。高百分比表示可能導致效能問題或 OutOfMemoryError 例外狀況的潛在記憶體壓力。您亦可透過 主機記憶體使用量 下的主機堆疊使用量進行深入分析,以檢視使用量偏高的主機。 分析載入的執行緒和類別 在 主機載入的執行緒和類別 區段中,尋找 前 10 個執行緒計數 和 前 10 個載入的類別 小工具。尋找執行緒或類別數量異常高於其他執行個體的任何 JVM。執行緒太多可能表示執行緒洩漏或並行過多,而大量載入類別可能表示類別載入器可能存在洩漏或者動態類別產生效率低下。 識別垃圾回收問題 在 垃圾回收 區段中,尋找適用於不同垃圾回收器類型的 每分鐘排名前 10 的垃圾回收調用 和 排名前 10 的垃圾回收持續時間 小工具: 年輕 、 並行 、 混合 。尋找任何相較於其他執行個體,具有異常高次數垃圾回收或較長回收持續時間的 JVM。這可能表示存在組態問題或記憶體流失。 您的瀏覽器已停用或無法使用 Javascript。 您必須啟用 Javascript,才能使用 AWS 文件。請參閱您的瀏覽器說明頁以取得說明。 文件慣用形式 CloudWatch 可觀測性解決方案 EC2 上的 NGINX 工作負載 此頁面是否有幫助? - 是 感謝您,讓我們知道我們做得很好! 若您有空,歡迎您告知我們值得讚許的地方,這樣才能保持良好服務。 此頁面是否有幫助? - 否 感謝讓我們知道此頁面仍須改善。很抱歉,讓您失望。 若您有空,歡迎您提供改善文件的方式。 | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/it_it/AmazonCloudWatch/latest/monitoring/AppSignals-MetricsCollected.html | Metriche raccolte da Application Signals - Amazon CloudWatch Metriche raccolte da Application Signals - Amazon CloudWatch Documentazione Amazon CloudWatch Guida per l’utente Parametri dell'applicazione standard raccolti Metriche di runtime Disabilitazione della raccolta di metriche di runtime Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà. Metriche raccolte da Application Signals Application Signals raccoglie sia le metriche standard delle applicazioni sia le metriche di runtime dalle applicazioni per le quali è abilitata. Le metriche standard delle applicazioni si riferiscono agli aspetti più critici delle prestazioni, della latenza e della disponibilità del servizio. Le metriche di runtime tengono traccia delle metriche delle applicazioni nel tempo, tra cui l'utilizzo della memoria, l'utilizzo della CPU e la rimozione di oggetti inutili (garbage collection). Application Signals visualizza le metriche di runtime nel contesto dei servizi che hai abilitato per Application Signals. In caso di problemi operativi, l'osservazione delle metriche di runtime può essere utile per individuare la causa principale del problema. Ad esempio, puoi vedere se i picchi di latenza in un servizio sono correlati ai picchi di una metrica di runtime. Argomenti Parametri dell'applicazione standard raccolti Metriche di runtime Disabilitazione della raccolta di metriche di runtime Parametri dell'applicazione standard raccolti Application Signals raccoglie i parametri dell'applicazione standard dai servizi che rileva. Questi parametri si riferiscono agli aspetti più critici delle prestazioni di un servizio: latenza, guasti ed errori. Possono aiutarti a identificare i problemi, monitorare le tendenze delle prestazioni e ottimizzare le risorse per migliorare complessivamente l'esperienza utente. La tabella seguente elenca i parametri raccolti da Application Signals. Tali parametri sono inviati a CloudWatch nello spazio dei nomi di ApplicationSignals . Parametro Descrizione Latency Il ritardo prima dell'inizio del trasferimento dei dati dopo la richiesta. Unità: millisecondi Fault Un conteggio degli errori lato server HTTP 5XX e degli errori di stato di intervallo di OpenTelemetry. Unità: nessuna Error Un numero di errori HTTP 4XX lato client. Questi sono considerati errori di richiesta non causati da problemi del servizio. Pertanto, il parametro Availability visualizzato nei pannelli di controllo di Application Signals non considera questi errori guasti del servizio. Unità: nessuna La metrica Availability visualizzata nei pannelli di controllo di Application Signals viene calcolata come (1 - Faults /totale)*100 . Le risposte totali includono tutte le risposte e sono ricavate da SampleCount(Latency) . Le risposte con esito positivo sono tutte risposte senza errori 5XX . Le risposte 4XX vengono considerate corrette durante il calcolo di Availability di Application Signals. Dimensioni raccolte e combinazioni di dimensioni Le seguenti dimensioni sono definite per ciascuno dei parametri standard dell'applicazione. Per ulteriori informazioni sulle dimensioni, consulta Dimensioni . Vengono raccolte diverse dimensioni per i parametri del servizio e i parametri di dipendenza . All'interno dei servizi scoperti da Application Signals, quando il microservizio A chiama il microservizio B, il microservizio B elabora la richiesta. In questo caso, il microservizio A emette parametri di dipendenza e il microservizio B emette parametri del servizio. Quando un client chiama il microservizio A, il microservizio A elabora la richiesta ed emette i parametri del servizio. Dimensioni per i parametri del servizio Le seguenti dimensioni vengono utilizzate per i parametri del servizio. Dimensione Descrizione Service Il nome del servizio . Il valore massimo è 255 caratteri. Operation Il nome dell'operazione API o altra attività. Il valore massimo è 1.024 caratteri. È possibile impostare obiettivi del livello di servizio per le operazioni solo se il nome dell'operazione è composto da un massimo di 194 caratteri. Environment Il nome dell'ambiente in cui i servizi sono in esecuzione. Se i servizi non sono in esecuzione su Amazon EKS, puoi specificare un valore personalizzato facoltativo per deployment.environment nel parametro OTEL_ATTRIBUTE_RESOURCES . Il valore massimo è 259 caratteri. Quando visualizzi queste metriche nella console CloudWatch, puoi visualizzarle utilizzando le seguenti combinazioni di dimensioni: [Environment, Service, Operation, [Latency, Error, Fault]] [Environment, Service, [Latency, Error, Fault]] Dimensioni per i parametri di dipendenza Per le metriche di dipendenza vengono raccolte le dimensioni seguenti: Dimensione Descrizione Service Il nome del servizio . Il valore massimo è 255 caratteri. Operation Il nome dell'operazione API o di un'altra operazione. Il valore massimo è 1024 caratteri. RemoteService Il nome del servizio remoto invocato. Il valore massimo è 255 caratteri. RemoteOperation Il nome dell'operazione API invocata. Il valore massimo è 1024 caratteri. Environment Il nome dell'ambiente in cui i servizi sono in esecuzione. Se i servizi non sono in esecuzione su Amazon EKS, puoi specificare un valore personalizzato facoltativo per deployment.environment nel parametro OTEL_ATTRIBUTE_RESOURCES . Il valore massimo è 259 caratteri. RemoteEnvironment Il nome dell'ambiente in cui i servizi della dipendenza sono in esecuzione. Il parametro RemoteEnvironment viene generato automaticamente quando un servizio chiama una dipendenza ed entrambi sono in esecuzione nello stesso cluster. Altrimenti, RemoteEnvironment non viene né generato né riportato nelle metriche della dipendenza del servizio. Attualmente, questo è disponibile solo su Amazon EKS e sulle piattaforme K8S. Il valore massimo è 259 caratteri. RemoteResourceIdentifier Il nome della risorsa invocata da una chiamata remota. Il parametro RemoteResourceIdentifier viene generato automaticamente se il servizio chiama un servizio AWS remoto. Altrimenti, RemoteResourceIdentifier non viene né generato né riportato nelle metriche della dipendenza del servizio. Il valore massimo è 1024 caratteri. RemoteResourceType Il tipo di risorsa invocata da una chiamata remota. Obbligatorio solo se RemoteResourceIdentifier è definito. Il valore massimo è 1024 caratteri. Quando visualizzi queste metriche nella console CloudWatch, puoi visualizzarle utilizzando le seguenti combinazioni di dimensioni: Esecuzione su cluster Amazon EKS [Environment, Service, Operation, RemoteService, RemoteOperation, RemoteEnvironment, RemoteResourceIdentifier, RemoteResourceType, [Latency, Error, Fault]] [Environment, Service, Operation, RemoteService, RemoteOperation, RemoteEnvironment, [Latency, Error, Fault]] [Environment, Service, Operation, RemoteService, RemoteOperation, RemoteResourceIdentifier, RemoteResourceType, [Latency, Error, Fault]] [Environment, Service, Operation, RemoteService, RemoteOperation, [Latency, Error, Fault]] [Environment, Service, RemoteService, RemoteEnvironment, [Latency, Error, Fault]] [Environment, Service, RemoteService, [Latency, Error, Fault]] [Environment, Service, RemoteService, RemoteOperation, RemoteEnvironment, RemoteResourceIdentifier, RemoteResourceType, [Latency, Error, Fault]] [Environment, Service, RemoteService, RemoteOperation, RemoteEnvironment, [Latency, Error, Fault]] [Environment, Service, RemoteService, RemoteOperation, RemoteResourceIdentifier, RemoteResourceType, [Latency, Error, Fault]] [Environment, Service, RemoteService, RemoteOperation, [Latency, Error, Fault]] [RemoteService [Latency, Error, Fault]] [RemoteService, RemoteResourceIdentifier, RemoteResourceType [Latency, Error, Fault]] Metriche di runtime Application Signals utilizza l'SDK AWS Distro per OpenTelemetry per raccogliere automaticamente metriche compatibili con OpenTelemetry dalle applicazioni Java e Python. Affinché le metriche di runtime possano essere raccolte, è necessario soddisfare i seguenti prerequisiti: La versione dell'agente CloudWatch deve essere 1.300049.1 o successiva. Se utilizzi il componente aggiuntivo Amazon CloudWatch Observability EKS, la versione deve essere 2.30-eksbuild.1 o successiva. Se aggiorni il componente aggiuntivo, devi riavviare le applicazioni. Per le applicazioni Java, è necessario che sia in esecuzione 1.32.5 o una versione successiva dell'SDK AWS Distro per OpenTelemetry per Java. Per le applicazioni Python, è necessario che sia in esecuzione 0.7.0 o una versione successiva dell'SDK AWS Distro per OpenTelemetry per Python. Per le applicazioni .Net, è necessario che sia in esecuzione 1.6.0 o una versione successiva dell'SDK AWS Distro per OpenTelemetry per .Net. Le metriche di runtime non vengono raccolte per le applicazioni Node.js. Le metriche di runtime vengono addebitate come parte dei costi di Application Signals. Per ulteriori informazioni sui prezzi di CloudWatch, consulta Prezzi di Amazon CloudWatch . Nota Problemi noti È noto che la raccolta delle metriche di runtime nella versione dell'SDK Java v1.32.5 non funziona con le applicazioni che utilizzano JBoss Wildfly. Questo problema si estende al componente aggiuntivo Amazon CloudWatch Observability EKS e riguarda le versioni da 2.3.0-eksbuild.1 a 2.6.0-eksbuild.1 . Questo problema è risolto nell'SDK per Java versione v1.32.6 e nel componente aggiuntivo Amazon CloudWatch Observability EKS versione v3.0.0-eksbuild.1 . Se riscontri problemi, esegui l'upgrade della versione dell'SDK per Java o disabilita la raccolta delle metriche di runtime aggiungendo la variabile di ambiente OTEL_AWS_APPLICATION_SIGNALS_RUNTIME_ENABLED=false all'applicazione. Metriche di runtime di Java Application Signals raccoglie le seguenti metriche JVM dalle applicazioni Java abilitate per Application Signals. Tutte le metriche di runtime vengono inviate a CloudWatch nel namespace ApplicationSignals e raccolte con l'insieme di dimensioni Service e Environment . Nome parametro Descrizione Statistiche significative JVMGCDuration Metrica aggregata per la durata delle operazioni di rimozione di oggetti inutili di JVM. Unità: millisecondi Somma, Media, Minimo, Massimo JVMGCOldGenDuration Metrica aggregata per la durata delle operazioni di rimozione di oggetti inutili di JVM di vecchia generazione. Disponibile solo in G1. Unità: millisecondi Somma, Media, Minimo, Massimo JVMGCYoungGenDuration Metrica aggregata per la durata delle operazioni di rimozione di oggetti inutili di JVM di nuova generazione. Disponibile solo in G1. Unità: millisecondi Somma, Media, Minimo, Massimo JVMGCCount Metrica aggregata per il numero delle operazioni di rimozione di oggetti inutili di JVM. Unità: nessuna Somma, Media, Minimo, Massimo JVMGCOldGenCount Metrica aggregata per il numero delle operazioni di rimozione di oggetti inutili di JVM di vecchia generazione. Disponibile solo in G1. Unità: nessuna Somma, Media, Minimo, Massimo JVMGCYoungGenCount Metrica aggregata per il numero delle operazioni di rimozione di oggetti inutili di JVM di nuova generazione. Disponibile solo in G1. Unità: nessuna Somma, Media, Minimo, Massimo JVMMemoryHeapUsed La quantità di heap di memoria utilizzata. Unità: byte Media, Minimo, Massimo JVMMemoryUsedAfterLastGC Quantità di memoria utilizzata, misurata dopo l'evento di rimozione di oggetti inutili più recente su questo pool. Unità: byte Media, Minimo, Massimo JVMMemoryOldGenUsed La quantità di memoria utilizzata dalla vecchia generazione. Unità: byte Media, Minimo, Massimo JVMMemorySurvivorSpaceUsed La quantità di memoria heap utilizzata dal survivor space. Unità: byte Media, Minimo, Massimo JVMMemoryEdenSpaceUsed La quantità di memoria utilizzata dall'eden space. Unità: byte Media, Minimo, Massimo JVMMemoryNonHeapUsed La quantità di memoria non heap utilizzata. Unità: byte Media, Minimo, Massimo JVMThreadCount Il numero di thread in esecuzione, inclusi i thread daemon e non daemon. Unità: nessuna Somma, Media, Minimo, Massimo JVMClassLoaded Il numero di classi caricate. Unità: nessuna Somma, Media, Minimo, Massimo JVMCpuTime Il tempo di CPU utilizzato dal processo, come riportato dalla JVM. Unità: nessuna (nanosecondi) Somma, Media, Minimo, Massimo JVMCpuRecentUtilization La CPU recente utilizzata dal processo, come riportato dalla JVM. Unità: nessuna Media, Minimo, Massimo Metriche di runtime di Python Application Signals raccoglie le seguenti metriche dalle applicazioni Python abilitate per Application Signals. Tutte le metriche di runtime vengono inviate a CloudWatch nel namespace ApplicationSignals e raccolte con l'insieme di dimensioni Service e Environment . Nome parametro Descrizione Statistiche significative PythonProcessGCCount Il numero totale di oggetti attualmente tracciati. Unità: nessuna Somma, Media, Minimo, Massimo PythonProcessGCGen0Count Il numero di oggetti attualmente tracciati nella Generazione 0. Unità: nessuna Somma, Media, Minimo, Massimo PythonProcessGCGen1Count Il numero di oggetti attualmente tracciati nella Generazione 1. Unità: nessuna Somma, Media, Minimo, Massimo PythonProcessGCGen2Count Il numero di oggetti attualmente tracciati nella Generazione 2. Unità: nessuna Somma, Media, Minimo, Massimo PythonProcessVMSMemoryUsed La quantità totale di memoria virtuale utilizzata dal processo. Unità: byte Media, Minimo, Massimo PythonProcessRSSMemoryUsed La quantità totale di memoria fisica non-swap utilizzata dal processo. Unità: byte Media, Minimo, Massimo PythonProcessThreadCount Il numero di thread attualmente utilizzati dal proccesso. Unità: nessuna Somma, Media, Minimo, Massimo PythonProcessCpuTime Il tempo di CPU utilizzato dal processo. Unità: secondi Somma, Media, Minimo, Massimo PythonProcessCpuUtilization L'utilizzo della CPU del processo. Unità: nessuna Media, Minimo, Massimo Metriche di runtime di .Net Application Signals raccoglie le seguenti metriche dalle applicazioni .Net abilitate per Application Signals. Tutte le metriche di runtime vengono inviate a CloudWatch nel namespace ApplicationSignals e raccolte con l'insieme di dimensioni Service e Environment . Nome parametro Descrizione Statistiche significative DotNetGCGen0Count Il numero totale di metriche di rimozione di oggetti inutili tracciate nella Generazione 0 dall'inizio del processo. Unità: nessuna Somma, Media, Minimo, Massimo DotNetGCGen1Count Il numero totale di metriche di rimozione di oggetti inutili tracciate nella Generazione 1 dall'inizio del processo. Unità: nessuna Somma, Media, Minimo, Massimo DotNetGCGen2Count Il numero totale di metriche di rimozione di oggetti inutili tracciate nella Generazione 2 dall'inizio del processo. Unità: nessuna Somma, Media, Minimo, Massimo DotNetGCDuration Il tempo totale di pausa nella rimozione di oggetti inutili dall'inizio del processo. Unità: nessuna Somma, Media, Minimo, Massimo DotNetGCGen0HeapSize La dimensione dell'heap (inclusa la frammentazione) della Generazione 0 osservata durante l'ultima rimozione di oggetti inutili. Nota Questa metrica è disponibile solo al termine della rimozione di oggetti inutili. Unità: byte Media, Minimo, Massimo DotNetGCGen1HeapSize La dimensione dell'heap (inclusa la frammentazione) della Generazione 1 osservata durante l'ultima rimozione di oggetti inutili. Nota Questa metrica è disponibile solo al termine della rimozione di oggetti inutili. Unità: byte Media, Minimo, Massimo DotNetGCGen2HeapSize La dimensione dell'heap (inclusa la frammentazione) della Generazione 2 osservata durante l'ultima rimozione di oggetti inutili. Nota Questa metrica è disponibile solo al termine della rimozione di oggetti inutili. Unità: byte Media, Minimo, Massimo DotNetGCLOHHeapSize La dimensione dell'heap di oggetti di grandi dimensioni (inclusa la frammentazione) osservata durante l'ultima rimozione di oggetti inutili. Nota Questa metrica è disponibile solo al termine della rimozione di oggetti inutili. Unità: byte Media, Minimo, Massimo DotNetGCPOHHeapSize La dimensione dell'heap di oggetti fissati (inclusa la frammentazione) osservata durante l'ultima rimozione di oggetti inutili. Nota Questa metrica è disponibile solo al termine della rimozione di oggetti inutili. Unità: byte Media, Minimo, Massimo DotNetThreadCount Il numero di thread del pool di thread attualmente esistenti. Unità: nessuna Media, Minimo, Massimo DotNetThreadQueueLength Il numero di elementi di lavoro attualmente in coda per essere elaborati dal pool di thread. Unità: nessuna Media, Minimo, Massimo Disabilitazione della raccolta di metriche di runtime Le metriche di runtime vengono raccolte per impostazione predefinita per le applicazioni Java e Python abilitate per Application Signals. Se desideri disabilitare la raccolta di queste metriche, segui le istruzioni relative al tuo ambiente riportate in questa sezione. Amazon EKS Per disabilitare le metriche di runtime nelle applicazioni Amazon EKS a livello di applicazione, aggiungi la seguente variabile di ambiente alla specifica del tuo carico di lavoro. env: - name: OTEL_AWS_APPLICATION_SIGNALS_RUNTIME_ENABLED value: "false" Per disabilitare le metriche di runtime nelle applicazioni Amazon EKS a livello di cluster, applica la configurazione alla configurazione avanzata del componente aggiuntivo Amazon CloudWatch Observability EKS. { "agent": { "config": { "traces": { "traces_collected": { "application_signals": { } } }, "logs": { "metrics_collected": { "application_signals": { } } } }, "manager": { "autoInstrumentationConfiguration": { "java": { "runtime_metrics": { "enabled": false } }, "python": { "runtime_metrics": { "enabled": false } }, "dotnet": { "runtime_metrics": { "enabled": false } } } } } } Amazon ECS Per disabilitare le metriche di runtime nelle applicazioni Amazon ECS, aggiungi la variabile di ambiente OTEL_AWS_APPLICATION_SIGNALS_RUNTIME_ENABLED=false nella nuova revisione della definizione delle attività e implementa nuovamente l'applicazione. EC2 Per disabilitare le metriche di runtime nelle applicazioni Amazon EC2, aggiungi la variabile di ambiente OTEL_AWS_APPLICATION_SIGNALS_RUNTIME_ENABLED=false prima dell'avvio dell'applicazione. Kubernetes Per disabilitare le metriche di runtime nelle applicazioni Kubernetes a livello di applicazione, aggiungi la seguente variabile di ambiente alla specifica del tuo carico di lavoro. env: - name: OTEL_AWS_APPLICATION_SIGNALS_RUNTIME_ENABLED value: "false" Per disabilitare le metriche di runtime nelle applicazioni Kubernetes a livello di cluster, utilizza quanto segue: helm upgrade ... \ --set-string manager.autoInstrumentationConfiguration.java.runtime_metrics.enabled=false \ --set-string manager.autoInstrumentationConfiguration.python.runtime_metrics.enabled=false \ -\-set-string manager.autoInstrumentationConfiguration.dotnet.runtime_metrics.enabled=false JavaScript è disabilitato o non è disponibile nel tuo browser. Per usare la documentazione AWS, JavaScript deve essere abilitato. Consulta le pagine della guida del browser per le istruzioni. Convenzioni dei documenti Esempio: risoluzione dei problemi delle applicazioni che interagiscono con Amazon Bedrock Metriche personalizzate con Application Signals Questa pagina ti è stata utile? - Sì Grazie per averci comunicato che stiamo facendo un buon lavoro! Se hai un momento, ti invitiamo a dirci che cosa abbiamo fatto che ti è piaciuto così possiamo offrirti altri contenuti simili. Questa pagina ti è stata utile? - No Grazie per averci comunicato che questa pagina ha bisogno di essere modificata. Siamo spiacenti di non aver soddisfatto le tue esigenze. Se hai un momento, ti invitiamo a dirci come possiamo migliorare la documentazione. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/ja_jp/AmazonCloudWatch/latest/logs/LogsAnomalyDetection.html | ログ異常検出 - Amazon CloudWatch Logs ログ異常検出 - Amazon CloudWatch Logs ドキュメント Amazon CloudWatch ユーザーガイド 異常とパターンの重要度と優先度 異常可視性期間 異常の抑制 よくある質問 翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。 ログ異常検出 ログデータの異常を検出するには、継続的モニタリング用の ログ異常ディテクター を作成するか、CloudWatch Logs Insights クエリの anomaly detection コマンドを使用してオンデマンド分析を行うという 2 つの方法があります。 ログ異常ディテクターは、ロググループに取り込まれたログイベントをスキャンし、ログデータ内の異常を自動的に検出します。異常検出では、機械学習とパターン認識を使用して、一般的なログコンテンツのベースラインを確立します。オンデマンド分析では、CloudWatch Logs Insights クエリで anomaly detection コマンドを使用し、時系列データの異常なパターンを特定できます。クエリベースの異常検出の詳細については、「 CloudWatch Logs Insights での異常検出の使用 」を参照してください。 ロググループの異常ディテクターを作成すると、そのグループの過去 2 週間分のログイベントを使用してトレーニングが行われます。トレーニングの所要時間は最大 15 分間です。トレーニングが完了すると、受信ログの分析が開始されて異常が識別されます。CloudWatch Logs コンソールに異常が表示されたら、調査を行います。 CloudWatch Logs パターン認識では、ログ内の静的コンテンツと動的コンテンツを識別することによって、ログパターンを抽出します。多数のログイベントをいくつかのパターンに圧縮することができるため、パターンは大きなログセットを分析する際に役立ちます。 例えば、次の 3 つのログイベントの例を参照してください。 2023-01-01 19:00:01 [INFO] Calling DynamoDB to store for ResourceID: 12342342k124-12345 2023-01-01 19:00:02 [INFO] Calling DynamoDB to store for ResourceID: 324892398123-1234R 2023-01-01 19:00:03 [INFO] Calling DynamoDB to store for ResourceID: 3ff231242342-12345 前のサンプルでは、3 つのログイベントはすべて 1 つのパターンに従っています。 <Date-1> <Time-2> [INFO] Calling DynamoDB to store for resource id <ResourceID-3> パターン内のフィールドは トークン と呼ばれます。リクエスト ID やタイムスタンプなど、パターン内の異なるフィールドは 動的トークン と呼ばれます。動的トークンのそれぞれ異なる値は、 トークン値 と呼ばれます。 CloudWatch Logs が動的トークンの表すデータのタイプを推測できる場合、トークンは < string - number > として表示されます。 文字列 は、トークンが表すデータのタイプの説明です。 数値 は、他の動的トークンと比較して、このトークンがパターン内のどこに表示されるかを示します。 CloudWatch Logs は、名前を含むログイベントのコンテンツの分析に基づいて、その名前の文字列部分を割り当てます。 CloudWatch Logs が動的トークンの表すデータのタイプを推測できない場合は、トークンは <トークン - 数値 > として表示され、 数値 は他の動的トークンと比較して、このトークンがパターン内のどこに表示されるかを示します。 動的トークンの一般的な例には、エラーコード、IP アドレス、タイムスタンプ、リクエスト ID があります。 異常検出ログは、これらのパターンを使用して異常を検出します。異常ディテクターのモデルトレーニング期間が終了したら、ログは既知の傾向に照らして評価されます。異常ディテクターは、大幅な変動を異常とみなし、フラグを立てます。 この章では、異常検出の有効化の方法、異常の表示方法、ログ異常ディテクターのアラームおよび異常ディテクターが発行するメトリクスの作成方法について説明します。また、異常ディテクターとその結果を暗号化する方法についても説明します AWS Key Management Service。 ログ異常ディテクターを作成しても料金は発生しません。 異常とパターンの重要度と優先度 ログ異常ディテクターによって検出される各異常には、 優先度 が割り当てられます。検出された各パターンには 重要度 が割り当てられます。 優先度 は自動的に計算され、パターンの重要度レベルと想定値からの偏差量の両方に基づきます。例えば、特定のトークン値が突然 500% 増加すると、その重要度が NONE であっても、その異常が HIGH 優先度として指定される可能性があります。 重要度 は、 FATAL 、 ERROR 、 WARN などのパターンで見つかったキーワードのみに基づいています。これらのキーワードが見つからない場合、パターンの重要度は NONE としてマークされます。 異常可視性期間 異常ディテクターを作成するときは、その異常の最大可視性期間を指定します。これは、異常がコンソールに表示され、 ListAnomalies API オペレーションによって返される日数です。この期間が経過した後も異常が発生し続けると、自動的に通常の動作として受け入れられ、異常検出モデルは異常としてフラグ付けするのを停止します。 異常ディテクターの作成時に可視性期間を調整しない場合、デフォルトで 21 日が使用されます。 異常の抑制 異常が検出されたら、一時的または永続的に抑制することを選択できます。異常を抑制すると、指定した期間中、異常ディテクターはこの発生を異常としてフラグ付けしなくなります。異常を抑制する場合、その特定の異常のみを抑制するか、異常が検出されたパターンに関連するすべての異常を抑制するかを選択できます。 抑制された異常はコンソールで表示できます。また、抑制を停止することもできます。 よくある質問 自分のデータ AWS を使用して、機械学習アルゴリズム AWS をトレーニングしたり、他の顧客向けにトレーニングしたりしていますか? いいえ。トレーニングによって作成された異常検出モデルは、ロググループのログイベントに基づいており、そのロググループとその AWS アカウント内でのみ使用されます。 異常検出にはどのようなタイプのログイベントが適していますか? ログ異常検出は、アプリケーションログや、ほとんどのログエントリが一般的なパターンに適合するその他のタイプのログに適しています。 INFO 、 ERROR 、 DEBUG などのログレベルまたは重要度キーワードを含むイベントを持つロググループは、ログ異常検出に特に適しています。 ログ異常検出は、CloudTrail Logs などの非常に長い JSON 構造を持つログイベントには適していません。 パターン分析では、ログラインの最初の 1500 文字までしか分析されないため、その制限を超える文字はスキップされます。 VPC フローログなどの監査ログやアクセスログも、異常検出で成功しません。異常検出はアプリケーションの問題を検出することを目的としているため、ネットワークやアクセスの異常には適さない可能性もあります。 異常ディテクターが特定のロググループに適しているかどうかを判断するには、CloudWatch Logs パターン分析を使用してグループのログイベントの中からパターン数を見つけます。パターン数が約 300 以下の場合は、異常検出が適切に機能する可能性があります。パターン分析の詳細については、「 パターン分析 」を参照してください。 何が異常としてフラグ付けされるのですか? 次の状況が発生すると、ログイベントに異常としてフラグが立てられる可能性があります。 ロググループで以前には見られなかったパターンを持つログイベント。 既知のパターンに対する大きな変化。 通常の値の個別のセットを持つ動的トークンの新しい値。 動的トークンの値の発生回数の大きな変化。 上記の項目はすべて異常としてフラグ付けされる可能性がありますが、すべてがアプリケーションのパフォーマンスが低いことを意味するわけではありません。例えば、通常よりも多くの 200 成功値が異常としてフラグ付けされる場合もあります。このような場合は、問題を示していないとして、これらの異常を抑制することを検討してください。 マスキングされている機密データはどうなりますか? 機密データとしてマスクされたログイベントの部分は、異常検出のためにスキャンされることはありません。機密データのマスキングの詳細については、「 Help protect sensitive log data with masking 」を参照してください。 ブラウザで JavaScript が無効になっているか、使用できません。 AWS ドキュメントを使用するには、JavaScript を有効にする必要があります。手順については、使用するブラウザのヘルプページを参照してください。 ドキュメントの表記規則 スケジュールされたクエリのトラブルシューティング CloudWatch Logs Insights での異常検出の使用 このページは役に立ちましたか? - はい ページが役に立ったことをお知らせいただき、ありがとうございます。 お時間がある場合は、何が良かったかお知らせください。今後の参考にさせていただきます。 このページは役に立ちましたか? - いいえ このページは修正が必要なことをお知らせいただき、ありがとうございます。ご期待に沿うことができず申し訳ありません。 お時間がある場合は、ドキュメントを改善する方法についてお知らせください。 | 2026-01-13T09:29:26 |
https://fr-fr.facebook.com/login/?next=https%3A%2F%2Fl.facebook.com%2Fl.php%3Fu%3Dhttps%253A%252F%252Fwww.instagram.com%252F%26amp%253Bh%3DAT2FpiAS5Z4gP0BLmRzfuo4BALg9YPzbZ9ghFRCmHt3Onrjp0xwiTLO3A5FDz8P8Zb_hiTX9tVT5JFDef74sOVyazw7vZoOm5R2kajYZw6QBHjevx_fbeeJTebCYVomRxu2_hRi-_Wu4ggdu | Facebook Facebook Adresse e-mail ou téléphone Mot de passe Informations de compte oubliées ? Créer un compte Cette fonction est temporairement bloquée Cette fonction est temporairement bloquée Il semble que vous ayez abusé de cette fonctionnalité en l’utilisant trop vite. Vous n’êtes plus autorisé à l’utiliser. Back Français (France) 한국어 English (US) Tiếng Việt Bahasa Indonesia ภาษาไทย Español 中文(简体) 日本語 Português (Brasil) Deutsch S’inscrire Se connecter Messenger Facebook Lite Vidéo Meta Pay Boutique Meta Meta Quest Ray-Ban Meta Meta AI Plus de contenu Meta AI Instagram Threads Centre d’information sur les élections Politique de confidentialité Centre de confidentialité À propos Créer une publicité Créer une Page Développeurs Emplois Cookies Choisir sa publicité Conditions générales Aide Importation des contacts et non-utilisateurs Paramètres Historique d’activité Meta © 2026 | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/fr_fr/AmazonCloudWatch/latest/monitoring/what-is-network-monitor.html | Utilisation de la surveillance synthétique du réseau - Amazon CloudWatch Utilisation de la surveillance synthétique du réseau - Amazon CloudWatch Documentation Amazon CloudWatch Guide de l’utilisateur Fonctions principales Terminologie et composants Exigences et limitations Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra. Utilisation de la surveillance synthétique du réseau La surveillance synthétique du réseau offre une visibilité sur les performances du réseau reliant vos applications hébergées sur AWS à vos destinations sur site, et vous permet d’identifier la source de toute dégradation des performances du réseau en quelques minutes. Network Synthetic Monitor est entièrement géré par AWS des agents distincts sur les ressources surveillées et ne nécessite pas d'agents distincts. Utilisez la surveillance synthétique du réseau pour visualiser la perte de paquets et la latence de vos connexions au réseau hybride et définir des alertes et des seuils. Ensuite, sur la base de ces informations, vous pouvez prendre des mesures pour améliorer l’expérience de vos utilisateurs finaux. Une surveillance synthétique du réseau est destinée aux opérateurs réseau et aux développeurs d’applications qui veulent obtenir des informations en temps réel sur les performances du réseau. Principales fonctionnalités de la surveillance synthétique du réseau Utilisez une surveillance synthétique du réseau pour évaluer votre environnement réseau hybride en constante évolution grâce à des métriques continues en temps réel sur la perte de paquets et la latence. Lorsque vous vous connectez en utilisant AWS Direct Connect, Network Synthetic Monitor peut vous aider à diagnostiquer rapidement la dégradation du réseau au sein du AWS réseau à l'aide de l'indicateur de santé du réseau (NHI), que Network Synthetic Monitor écrit sur votre CloudWatch compte Amazon. La métrique NHI est une valeur binaire, basée sur un score probabiliste concernant la dégradation du réseau au sein d’ AWS. Network Synthetic Monitor propose une approche de surveillance basée sur des agents entièrement gérés, de sorte que vous n'avez pas besoin d'installer d'agents sur site VPCs ou sur site. Pour commencer, il vous suffit de spécifier un sous-réseau VPC et une adresse IP sur site. Vous pouvez établir une connexion privée entre votre VPC et les ressources de Network Synthetic Monitor en utilisant. AWS PrivateLink Pour de plus amples informations, veuillez consulter Utilisation de CloudWatch, CloudWatch Synthetics et CloudWatch Network Monitoring avec des points de terminaison d’un VPC . Network Synthetic Monitor publie des métriques dans CloudWatch Metrics. Vous pouvez créer des tableaux de bord pour afficher vos métriques, mais aussi créer des seuils d’action et des alarmes sur les métriques spécifiques à votre application. Pour de plus amples informations, veuillez consulter Fonctionnement de la surveillance synthétique du réseau . Terminologie et composants de la surveillance synthétique du réseau Sondes — Une sonde est le trafic envoyé depuis une ressource AWS hébergée vers une adresse IP de destination sur site. Les métriques du Network Synthetic Monitor mesurées par la sonde sont enregistrées dans votre CloudWatch compte pour chaque sonde configurée dans un moniteur. Moniteur : un moniteur affiche les performances du réseau et d’autres informations de santé pour le trafic pour lequel vous avez créé des sondes de surveillance synthétique du réseau. Vous ajoutez des sondes dans le cadre de la création d’un moniteur, puis vous pouvez afficher des informations sur les métriques de performances du réseau à l’aide du moniteur. Lorsque vous créez un moniteur pour une application, vous ajoutez une ressource AWS hébergée en tant que source réseau. Network Synthetic Monitor crée ensuite une liste de toutes les sondes possibles entre la ressource AWS hébergée et vos adresses IP de destination. Vous sélectionnez les destinations pour lesquelles vous voulez surveiller le trafic. AWS source réseau — Une source AWS réseau est la source d'origine AWS d'une sonde de surveillance, qui est un sous-réseau de l'un de vos VPCs. Destination : une destination est la cible dans votre réseau sur site pour la source de réseau AWS . Une destination est une combinaison de vos adresses IP locales, de vos protocoles réseau, de vos ports et de la taille de vos paquets réseau. IPv4 et les IPv6 adresses sont toutes deux prises en charge. Exigences et limitations de la surveillance synthétique du réseau Vous trouverez ci-dessous un résumé des exigences et des limites de la surveillance synthétique du réseau. Pour les quotas (ou limites) spécifiques, consultez Surveillance synthétique du réseau . Les sous-réseaux du moniteur doivent appartenir au même compte que le moniteur. Network Synthetic Monitor ne fournit pas de basculement automatique du réseau en cas de problème AWS réseau. Chaque sonde que vous créez est facturée. Pour plus de détails sur les prix, veuillez consulter Tarification de la surveillance synthétique du réseau . JavaScript est désactivé ou n'est pas disponible dans votre navigateur. Pour que vous puissiez utiliser la documentation AWS, Javascript doit être activé. Vous trouverez des instructions sur les pages d'aide de votre navigateur. Conventions de rédaction Rôle lié à un service Fonctionnement de la surveillance synthétique du réseau Cette page vous a-t-elle été utile ? - Oui Merci de nous avoir fait part de votre satisfaction. Si vous avez quelques minutes à nous consacrer, merci de nous indiquer ce qui vous a plu afin que nous puissions nous améliorer davantage. Cette page vous a-t-elle été utile ? - Non Merci de nous avoir avertis que cette page avait besoin d'être retravaillée. Nous sommes désolés de ne pas avoir répondu à vos attentes. Si vous avez quelques minutes à nous consacrer, merci de nous indiquer comment nous pourrions améliorer cette documentation. | 2026-01-13T09:29:26 |
https://docs.brightdata.com/api-reference/web-scraper-api/social-media-apis/tiktok#param-what-to-collect-1 | TikTok API Scrapers - Bright Data Docs Skip to main content Bright Data Docs home page English Search... ⌘ K Support Sign up Sign up Search... Navigation Social Media APIs TikTok API Scrapers Welcome Proxy Infrastructure Web Access APIs Data Feeds AI API Reference General Integrations Overview Authentication Terminology Postman collection Python SDK JavaScript SDK Products Unlocker API SERP API Marketplace Dataset API Web Scraper API POST Asynchronous Requests POST Synchronous Requests POST Crawl API Delivery APIs Management APIs Social Media APIs Overview Facebook Instagram LinkedIn TikTok Reddit Twitter Pinterest Quora Vimeo YouTube Scraper Studio API Scraping Shield Proxy Networks Proxy Manager Unlocker & SERP API Deep Lookup API (Beta) Administrative API Account Management API On this page Overview Profile API Collect by URL Discover by Search URL Posts API Collect by URL Discover by Profile URL Discover by Keywords Discover by Discover URL Comments API Collect by URL Social Media APIs TikTok API Scrapers Copy page Copy page Overview The TikTok API Suite offers multiple types of APIs, each designed for specific data collection needs from TikTok. Below is an overview of how these APIs connect and interact, based on the available features: Profile API This API allows users to collect profile details based on a single input: profile URL. Discovery functionality : Direct URL of the search Interesting Columns : nickname , awg_engagement_rate , followers , likes Posts API This API allows users to collect multiple posts based on a single input URL. Discovery functionality : - Direct URL of the TikTok profile - Discover by keywords - Direct URL of the discovery Interesting Columns : url , share_count , description , hashtags Comments API This API allows users to collect multiple comments from a post using its URL. Discovery functionality : N/A Interesting Columns : url , comment_text , commenter_url , num_likes Profile API Collect by URL This API allows users to retrieve detailed TikTok profile information using the provided profile URL. Input Parameters : URL string required The TikTok profile URL. Output Structure : Includes comprehensive data points: Profile Details : account_id , nickname , biography , bio_link , predicted_lang , is_verified , followers , following , likes , videos_count , create_time , id , url , profile_pic_url , profile_pic_url_hd , and more. For all data points, click here . Engagement Metrics : awg_engagement_rate , comment_engagement_rate , like_engagement_rate , like_count , digg_count . Privacy & Settings : is_private , relation , open_favorite , comment_setting , duet_setting , stitch_setting , is_ad_virtual , room_id , is_under_age_18 . Discovery & Top Videos : region , top_videos , discovery_input . This API allows users to retrieve detailed TikTok profile information, including engagement metrics, privacy settings, and top videos, offering insights into user activity and profile data. Discover by Search URL This API allows users to discover TikTok profiles based on a specific search URL and country, providing detailed profile information. Input Parameters : search_url string required The TikTok search URL. country string required The country from which to perform the search. Output Structure : Includes comprehensive data points: Profile Details : account_id , nickname , biography , bio_link , predicted_lang , is_verified , followers , following , likes , videos_count , create_time , id , url , profile_pic_url , profile_pic_url_hd , and more. For all data points, click here . Engagement Metrics : awg_engagement_rate , comment_engagement_rate , like_engagement_rate , like_count , digg_count . Privacy & Settings : is_private , relation , open_favorite , comment_setting , duet_setting , stitch_setting , is_ad_virtual , room_id , is_under_age_18 . Discovery & Top Videos : region , top_videos , discovery_input . This API enables users to discover TikTok profiles based on search criteria, offering insights into user activity, engagement, privacy settings, and top content. It helps facilitate efficient discovery and analysis of TikTok users. Posts API Collect by URL This API enables users to collect detailed data from TikTok posts by providing a post URL. Input Parameters : URL string required The TikTok post URL. Output Structure : Includes comprehensive data points: Post Details : post_id , description , create_time , share_count , collect_count , comment_count , play_count , video_duration , hashtags , original_sound , official_item , original_item , shortcode , video_url , music , cdn_url , width , carousel_images , and more. For all data points, click here . Profile Details : profile_id , profile_username , profile_url , profile_avatar , profile_biography , account_id , profile_followers , is_verified . Tagged Users and Media : tagged_user , carousel_images . Additional Information: : tt_chain_token , secu_id Discover by Profile URL This API allows users to retrieve posts from a TikTok profile based on a provided profile URL, with filtering options for the number of posts, date range, and post exclusions. Input Parameters : URL string required The TikTok profile URL. num_of_posts number The number of posts to collect. If not provided, there is no limit. posts_to_not_include array An array of post IDs to exclude from the collection. start_date string Start date for filtering posts (format: mm-dd-yyyy). Should be lower than end_date . end_date string End date for filtering posts (format: mm-dd-yyyy). Should be greater than start_date . what_to_collect string Specify the type of posts to collect (e.g., “post” or “reel”). Output Structure : Includes comprehensive data points: Post Details : post_id , description , create_time , share_count , collect_count , comment_count , play_count , video_duration , hashtags , original_sound , official_item , original_item , shortcode , video_url , music , cdn_url , width , carousel_images , and more. For all data points, click here . Profile Details : profile_id , profile_username , profile_url , profile_avatar , profile_biography , account_id , profile_followers , is_verified . Tagged Users and Media : tagged_user , carousel_images . Additional Information : tt_chain_token , secu_id . This API allows users to discover and retrieve detailed information about posts from a specific TikTok profile, including post-specific metrics, profile details of the creator, and tagged users. It supports efficient content discovery and post analysis. Discover by Keywords This API allows users to search for TikTok posts based on specific keywords or hashtags, offering a powerful tool for discovering relevant content across TikTok’s platform. Input Parameters : search_keyword string required The keyword or hashtag to search for within TikTok posts. num_of_posts number The number of posts to collect. If not provided, there is no limit. posts_to_not_include array An array of post IDs to exclude from the collection. what_to_collect string Specify the type of posts to collect (e.g., “post” or “reel”). Output Structure : Includes comprehensive data points: Post Details : post_id , description , create_time , digg_count , share_count , collect_count , comment_count , play_count , video_duration , hashtags , original_sound , post_type , discovery_input , official_item , and more. For all data points, click here . Profile Details : profile_id , profile_username , profile_url , profile_avatar , profile_biography , account_id , profile_followers , is_verified . Tagged Users and Media : tagged_user , carousel_images . Additional Information : tt_chain_token , secu_id . This API allows users to discover posts on TikTok that match specific keywords or hashtags, providing insights into post details, profile information, and media. It’s a great tool for exploring trends, content, and users on TikTok. Discover by Discover URL This API allows users to collect detailed post data from a specific TikTok discover URL. Input Parameters : URL string required The TikTok discover URL from which posts will be retrieved. Output Structure : Includes comprehensive data points: Post Details : post_id , description , create_time , digg_count , share_count , collect_count , comment_count , play_count , video_duration , hashtags , original_sound , post_type , discovery_input , official_item , original_item , and more. For all data points, click here . Profile Details : profile_id , profile_username , profile_url , profile_avatar , profile_biography , account_id , profile_followers , is_verified . Tagged Users and Media : tagged_user , carousel_images . Additional Information : tt_chain_token , secu_id . This API provides detailed insights into TikTok posts discovered via the discover URL, allowing for easy access to trending content, user profiles, and post metadata for analysis and exploration. Comments API Collect by URL This API allows users to collect detailed comment data from a specific TikTok post using the provided post URL. Input Parameters : URL string required The TikTok post URL. Output Structure : Includes comprehensive data points: Post Details : post_url , post_id , post_date_created . For all data points, click here . Comment Details : date_created , comment_text , num_likes , num_replies , comment_id , comment_url . Commenter Details : commenter_user_name , commenter_id , commenter_url . This API provides detailed insights into TikTok post comments, including comment-specific metrics and information about the commenters, enabling effective comment analysis and interaction tracking. Was this page helpful? Yes No LinkedIn Reddit ⌘ I linkedin youtube github Powered by | 2026-01-13T09:29:26 |
https://docs.brightdata.com/api-reference/web-scraper-api/social-media-apis/instagram#comments-api | Instagram API Scrapers - Bright Data Docs Skip to main content Bright Data Docs home page English Search... ⌘ K Support Sign up Sign up Search... Navigation Social Media APIs Instagram API Scrapers Welcome Proxy Infrastructure Web Access APIs Data Feeds AI API Reference General Integrations Overview Authentication Terminology Postman collection Python SDK JavaScript SDK Products Unlocker API SERP API Marketplace Dataset API Web Scraper API POST Asynchronous Requests POST Synchronous Requests POST Crawl API Delivery APIs Management APIs Social Media APIs Overview Facebook Instagram LinkedIn TikTok Reddit Twitter Pinterest Quora Vimeo YouTube Scraper Studio API Scraping Shield Proxy Networks Proxy Manager Unlocker & SERP API Deep Lookup API (Beta) Administrative API Account Management API On this page Overview Profiles API Collect by URL Posts API Collect by URL Discover by URL Comments API Collect by URL Reels API Collect by URL Discover by URL Social Media APIs Instagram API Scrapers Copy page Copy page Overview The Instagram API Suite offers multiple types of APIs, each designed for specific data collection needs from Instagram. Below is an overview of how these APIs connect and interact, based on the available features: Profiles API This API allows users to collect profile details based on a single input: profile URL. Discovery functionality : N/A Interesting Columns : followers , post_count , post_hashtags , profile_name . Posts API This API allows users to collect multiple posts based on a single input URL (such as an Instagram reels URL, search URL or profile URL). Discovery functionality : - Direct URL of the Instagram reel - Direct URL of the search - Direct URL of the profile Interesting Columns : url , followers , hashtags , engagement_score_view . Comments API This API allows users to collect multiple comments from a post using its URL. Discovery functionality : N/A Interesting Columns : comment_user , comment , likes_number , replies_number . The suite of APIs is designed to offer flexibility for targeted data collection, where users can input specific URLs to gather detailed post and comment data, either in bulk or with precise filtering options. Profiles API Collect by URL This API allows users to collect detailed data about an Instagram profile by providing the profile URL. It provides a comprehensive overview of an Instagram profile, including business and engagement information, posts, and user details. Input Parameters URL string required The Instagram profile URL. Output Structure Includes comprehensive data points: Page/Profile Details : account , id , followers , posts_count , is_business_account , is_professional_account , is_verified , avg_engagement , profile_name , profile_url , profile_image_link , and more. For all data points, click here . Posts API Collect by URL This API enables users to collect detailed data from Instagram posts by providing a post URL. Input Parameters URL string required The Instagram post URL. Output Structure Includes comprehensive data points: Post Details : post_id , description , hashtags , date_posted , num_comments , likes , content_type , video_view_count , video_play_count , and more. For all data points, click here . Page/Profile Details : user_posted , followers , posts_count , profile_image_link , is_verified , profile_url . We provide a limited set of data points about the profile. Attachments and Media : photos , videos , thumbnail , display_url (link only, not the file itself), audio. Discover by URL This API allows users to discover recent Instagram posts from a public profile by providing the profile URL and specifying additional parameters. Input Parameters URL string required The Instagram profile URL. num_of_posts number The number of recent posts to collect. If omitted, there is no limit. posts_to_not_include array Array of post IDs to exclude from the results. start_date string Start date for filtering posts in MM-DD-YYYY format (should be earlier than end_date). end_date string End date for filtering posts in MM-DD-YYYY format (should be later than start_date). post_type string Specify the type of posts to collect (e.g., post, reel). Output Structure Includes comprehensive data points: Post Details: post_id , description , hashtags , date_posted , num_comments , likes , video_view_count , video_play_count ,and more. For all data points, click here . Page/Profile Details: user_posted , followers , posts_count , profile_image_link , is_verified , profile_url , is_paid_partnership , partnership_details , user_posted_id Attachments and Media: photos , videos , thumbnail , audio , display_url , content_type , product_type , coauthor_producers , tagged_users . This API is designed to allow for filtering, exclusion of specific posts, and collecting posts by type (regular post or reel) within a defined time frame. It provides detailed post and profile information, making it ideal for data collection and analytics. Comments API Collect by URL This API allows users to collect the latest comments from a specific Instagram post by providing the post URL. This API retrieves the most recent 10 comments along with associated metadata. Input Parameters URL string required The Instagram post URL. Output Structure Includes comprehensive data points: Comment Details : comment_id , comment_user , comment_user_url , comment_date , comment , likes_number , replies_number , replies , hashtag_comment , tagged_users_in_comment , and more. For all data points, click here . User Details : user_name , user_id , user_url We provide a limited set of data points about the profile. Post Metadata : post_url , post_user , post_id . Reels API Collect by URL This API allows users to collect detailed data about Instagram reels from public profiles by providing the reel URL. Input Parameters URL string required The Instagram reel URL. Output Structure Includes comprehensive data points: Reel Details : post_id , description , hashtags , date_posted , tagged_users , num_comments , likes , views , video_play_count , length , and more. For all data points, click here . Page/Profile Details : user_posted , followers , posts_count , profile_image_link , is_verified , profile_url . We provide a limited set of data points about the profile. Attachments and Media : video_url , thumbnail , audio_url . Discover by URL This API allows users to discover Instagram Reels videos from a profile URL or direct search URL. Input Parameters URL string required The Instagram profile or direct search URL. num_of_posts number The number of recent reels to collect. If omitted, there is no limit. posts_to_not_include array Array of post IDs to exclude from the results. start_date string Start date for filtering reels in MM-DD-YYYY format. end_date string End date for filtering reels in MM-DD-YYYY format (should be later than start_date ). Output Structure Includes comprehensive data points: Reel Details : post_id , description , hashtags , date_posted , num_comments , likes , views , video_play_count , top_comments , length , video_url , audio_url , content_id , and more. For all data points, click here . Profile Details : user_posted , followers , posts_count , following . Attachments and Media : video_url , thumbnail , audio_url (link only, not the file itself). This API provides detailed information about Instagram Reels, with filtering options by date range, exclusion of specific posts, and a limit on the number of reels collected. Was this page helpful? Yes No Facebook LinkedIn ⌘ I linkedin youtube github Powered by | 2026-01-13T09:29:26 |
https://foundryco.com/privacy-policy/ | Privacy Policy | Foundry Skip to content Search Contact us Translation available Select an experience Japan Global Search for: Search Brands CIO CSO InfoWorld Network World Computerworld Macworld PCWorld Tech Advisor TechHive ChannelWorld Specialty brands CIO100 CSO50 All brands Audiences Artificial intelligence Cloud Security Hardware Software All audiences Solutions Ads Audiences Lead gen Intent data Brand experiences Interactive storytelling Events Partner marketing Content creation Affiliate marketing All solutions Research Technology insights AI Priorities CIO Tech Priorities Cloud Computing Security Priorities State of the CIO Buying process Customer Engagement Role & Influence Partner Marketing All research Resources Resources Tools for marketers Blog Videos Customer stories Developer portal The Intersection newsletter All resources About us Press Awards Work here Privacy / Compliance Licensing About Us Brands CIO CSO InfoWorld Network World Computerworld Macworld PCWorld Tech Advisor TechHive ChannelWorld Specialty brands CIO 100 CSO50 All brands Audiences Artificial intelligence Cloud Security Hardware Software All audiences Solutions Ads Lead gen Intent data Brand experiences Interactive storytelling Events Partner marketing Content creation Affiliate marketing All solutions Research Technology insights AI Priorities CIO Tech Priorities Cloud Computing Security Priorities State of the CIO Buying process Customer Engagement Role & Influence Partner Marketing All research Resources Resources Tools for marketers Blog Videos Customer stories Developer Portal The Intersection newsletter All Resources About us Press Awards Work here Privacy / Compliance Licensing About Us Contact Log in Edition - Select an experience Japan Global FoundryCo, Inc. Privacy Policy Welcome We’re glad you chose to visit an FoundryCo, Inc. (“ Foundry ” or “ we ”) site! We care about your privacy and the personal data you share with us and want you to understand how we are using and protecting the personal data we collect about you as a data controller. Foundry is respectful of data privacy and adopts best practices in compliance with applicable privacy law and regulations, including the European General Data Protection Regulation (EU 2016/679) (the “ GDPR ”), Directive 2002/58/EC (the “ e-Privacy Directive ”); European national laws implementing derogations, exceptions or other aspects of the e-Privacy Directive and/or the GDPR; the GDPR, as transposed into the United Kingdom national law by operation of section 3 of the European Union (Withdrawal) Act 2018 and as amended by the Data Protection, Privacy and Electronic Communications (Amendments etc.) (EU Exit) Regulations 2019 (the “ UK GDPR ”) and the United Kingdom’ Data Protection Act 2018; the Canadian Personal Information Protection and Electronic Documents Act (the “ PIPEDA ”); the California Consumer Privacy Act of 2018, as amended from time to time (the “ CCPA ”) and the California Privacy Rights Act of 2020 (the “ CPRA ”). Who Processes Your Data? The controller of your personal data is Foundry and members of the Foundry group of companies (“ Group Undertakings ”). A full list of Foundry Group Undertakings, including contact details, is available here . Each Group Undertaking acts as a data controller with respect to data collected, processed, used, and stored as a part of services and activities conducted by a Group Undertaking. Certain services and activities may be conducted by several Group Undertakings. Where required, Foundry has designated a representative in the EU: IDG Communications Limited Mezzanine Floor, Millennium House, Great Strand Street Dublin 1, Ireland dataprotection@foundryco.com . For all matters related to privacy and the collection, processing, use and storage of your personal data, please contact Foundry’s Data Protection Officer at: dataprotection@foundryco.com . What personal data we collect? Depending on the product or/and service involved, Foundry may collect various categories of data for distinct purposes. This may include, in particular: Data that you provide to us: Business contact information, such as first name, last name, business email address and phone number, company name, business title, business address. In some cases, you may also provide us additional professional information such as the size of the company you work for, and industry type. When you set up an account with Foundry, we may also collect your log-in credentials (i.e., email and password) and billing information, where applicable. With respect to networking events, we may collect certain details pertaining to professional profiles, including photos and feedback or information that participants, speakers, and/or partners have volunteered to provide to us via questionnaires submitted prior to, during or after events. We may also process the information necessary for the provision of ancillary services relating to events organized by us that you requested (e.g., to arrange accommodation for you). We may collect such data when you use or register to receive any of the products, services or content offered by Foundry and its third-party sponsors, as applicable (including authentication through your social media profiles), or when you communicate with us through email, web application forms, chat, our social media, and other forms of communication. Data we collect from other sources: We collect information about your use and interaction with our websites, content and services. The exact scope of personal data collected will depend on the specific features of the website / services then available and used by you. We use cookies and other tools for collecting such data. Please refer to our Cookie Policy for more information. We may also collect personal data that you have made accessible from publicly available sources, including third-party websites, blogs, articles, or similar publicly available content. This typically includes business contact information as described in Section 2.1 above. Foundry processes your business professional details in the context of your professional capacity. Foundry does not, in any event, knowingly collect or process any personal data that may be classified as special categories of personal data or sensitive personal information under the applicable privacy laws. How we use your personal data To provide and improve our services and content and to develop new offerings We may use your personal data and information about your organization to deliver our services or content to you and/or our clients, e.g., when you access our platforms from the Foundry Communications Network , subscribe to our newsletter, visit our or our clients’ websites, view our or our clients’ content, participate in our networking events, etc. We will use your personal data in particular to identify you when you login to your account, to process your payments, and to fulfil your requests. If you enter a sweepstake, contest, or similar Foundry promotion, we may use your personal data to administer such promotion. Some public Foundry events may be recorded by means of photographs, audio recordings, and/or videos. Such photographs and recordings may subsequently appear on the respective event website, other relevant website, on social media, in the press, or in promotional materials (such as Foundry promotional videos or program guides). All events to be thus documented will be clearly indicated as such. Foundry may separately seek your consent prior to recording if you are to feature predominantly in the planned recording (e.g., speakers and participants in interviews). We may also use the personal data about you to enhance, optimize, secure, update, market, and analyse our services or develop new services or products. To communicate with you We may process your personal data to communicate with you, for example, when we assist you with setting up or administering your account, provide customer care, resolve your complaints, and send technical notices and other support messages. Such communication is not affected by your marketing communication preferences. Foundry may also use your personal data when we ask you for your insights about a specific industry or topic (surveys) or to provide you with updates on industry developments and other value-added services or features provided whether for remuneration or free of charge. To inform you about Foundry’s products or services We may contact you about our news, events, services and their features or special offers that we believe may interest you, provided that we have the requisite permission to do so, either on the basis of your consent, or our legitimate interests to provide you with marketing communications where we may do so, within the limits provided by law. You may change your marketing preferences at any time by following the instructions in such communications or by contacting us via the contact details provided in the Section 1 of this Privacy Policy. To carry out B2B market research and provide relating services Foundry may process your personal data to carry out relevant market research and analysis and to provide services and insights relating to market assessments, business-to-business marketing, sales, business development, and other related purposes. This may include analysis and other processing relying also on third-party sources and algorithmic processing. The purposes are limited to business-related information processed in the context of your professional capacity. To comply with legal obligations Foundry may also process your personal data to comply with applicable legal obligations. To prevent fraudulent activities and protect our rights We may use the information about you to detect, prevent and address fraud and other illegal activity and to establish, exercise or defend our legal claims and protect our rights. On what legal basis do we process your personal data? We process, use, and store your data primarily to perform our obligations under the contracts we have concluded with you or your organization. In certain instances, we may also process your personal data based on our legitimate interests. Foundry’s legitimate interests include developing, offering and delivering our B2B products and services to customers, enhancing our products and customer base management of the customer relationships, conducting market research and analysis, exchanging professional knowledge about the industry, exercising and defending our legal rights, preventing fraud, illegal activity or imminent harm, and ensuring the security and operability of our network and services. Where permissible under applicable law, we may also contact you about our products and services based on our legitimate interests. In specific cases, we process your data based on your consent, in accordance with the requirements for consent under applicable privacy laws. For example, we may rely on your consent for direct marketing purposes or personalized advertising, where required. We may also process your personal data where such processing is necessary to comply with the laws applicable to Foundry’s business operations. For how long do we store your data? We will store your personal data for as long as is necessary to provide you with the products and/or services requested by you or your organization; for as long as is reasonably required to store such information for our legitimate interests, such as exercising our legal rights, or for as long as we are legally obligated to store such information. If you consent to us collecting, processing, using, and storing your personal data, we will do so for the duration of such consent — in other words, until such consent expires or is withdrawn. You have the right to withdraw your consent at any time. For more details on the withdrawal of your consent, please see Section 8 below. Data disclosures and transfers We may disclose your personal data to third parties or Group Undertakings in the following circumstances: Our Group Undertakings, as listed here , working with us or on our behalf for the purposes described in this Privacy Policy may have access to your personal data. We may also share your personal data with non-affiliated third parties such as professional advisors or public authorities when necessary: To comply with legal obligations; To enforce or defend the legal rights of Foundry in connection with corporate restructuring, such as a merger or business acquisition, or in connection with an insolvency situation; To prevent fraud or imminent harm; and/or To ensure the security and operability of our network and services. We share your data with our trusted business partners, who process your data as our vendors and data processors on our behalf and pursuant to our instructions (for the purposes of e.g., IT support, hosting, etc.). We strive to select our vendors carefully and ensure they are able to provide adequate data protection and security safeguards. Foundry can share your personal data with its business partners, sponsors, clients or other third parties, in the context of business-to-business services provided by Foundry, or to develop or market certain content (e.g., white papers). Where required, we will seek your consent before sharing your personal data with such third parties. Processing of your personal data by such third parties is governed by their respective privacy policies. Your personal data can be shared through third-party cookies and other related technologies that are used by third parties. Please refer to our Cookie Policy for more information. As required by the applicable laws, any transfer of your personal data outside the EU or the UK only takes place if the requirements of the applicable privacy laws, in particular as laid down in Art. 44 et seq. GDPR, have been fulfilled, e.g., based on the European Commission’s adequacy decision, or the Standard Contractual Clauses, including the UK SCC Addendum, where applicable. Data security We have implemented and will maintain appropriate technical and organizational measures, internal controls, and information security routines in accordance with good industry practice while keeping in mind the state of technological development in order to protect your data against accidental loss, destruction, alteration, unauthorized disclosure or access or unlawful destruction. We employ various security measures to protect the information we collect, as appropriate to the type of information, including encryption, firewalls, and access controls. Foundry further ensures that all individuals who have access to your data and are involved in the collection, processing, use, and/or storage thereof are bound by appropriate confidentiality obligations and have appropriate training. You are responsible for keeping confidential any passwords that we give you (or you choose) that enable you to access certain parts of our website. For security reasons, such passwords must not be shared with anyone. What are your rights? If you have any questions or concerns about the handling of your personal data, and/or you wish to exercise your data subject rights, please contact us at any time via the contact details provided in the Section 1 of this Privacy Policy. As a data subject, you have the following rights: The Right to Access : You have a right to request access to the personal data about you that we process and to receive a copy of that data. The Right to Receive Information : You may contact us at any time with a request to receive more information regarding the following: the purposes for which we use your personal data; how we categorize your personal data; the recipients of your personal data; the length of time we store your personal data; and your rights as a data subject. The Right to Portability : You have the right to receive a copy of your personal data from us in a structured and commonly used machine-readable format. You may also request us to transfer such data to another data controller. The Right to Erasure : You may request us to erase your personal data from our records. Please note, that in some cases we may be legally obliged to retain some of your personal data. We may also retain some of your personal data in order to defend our legal rights, avoid sending you unwanted materials in the future, and to keep a record of your request and our response. The Right to Rectification : If you discover that any of the data we possess about you is incorrect or incomplete, you may as us to rectify or supplement your data. The Right to the Restriction of Use : You have a right to request restriction of our use of your personal data, in particular if you believe that such processing is unlawful, or your data are inaccurate. The Right to Object : In cases in which we rely on our legitimate interest to use your personal data, we must consider and acknowledge the interests and rights that you have under data protection law. Your privacy rights are always protected by appropriate safeguards and balanced with your freedoms and other rights. You have the right to submit an objection at any time to our use of your personal data based on our legitimate interest. The Right to Withdraw Consent : You have the right to withdraw your consent at any time to our use of your personal data. Please note that a withdrawal of your consent does not affect the legality of the use of your personal data prior to your consent being withdrawn. To exercise any of the above-mentioned rights, please contact us through the contact information provided in Section 1 of this Privacy Policy. Additionally, you have the right to lodge a complaint with the competent Data Protection Authority if you believe your rights regarding our use of your personal data have been violated. For all processing of personal data carried out by Foundry within the European Economic Area subject to the GDPR, the competent Data Protection Authority is the Irish Data Protection Commission, with registered office at 21 Fitzwilliam Square South, Dublin 2, D02 RD28, Ireland, as the lead supervisory authority of Foundry. More information can be found at: https://www.dataprotection.ie/ . For all processing of personal data carried out by Foundry in the United Kingdom subject to the UK GDPR, the competent Data Protection Authority is the Information Commissioner’s Office, with registered office at Wycliffe House, Water Lane, Wilmslow SK9 5AF, United Kingdom. More information can be found at: https://ico.org.uk . If you are a Californian consumer, please see the Your California Privacy Rights for a complete statement of your rights under the CCPA, including the right to opt-out of the sharing and sale of your personal data. ContentPass On many of our websites, in Austria, Germany, Ireland and the United Kingdom, we offer you privacy-friendly and ad-free access with Contentpass. This is an offer from Content Pass GmbH, Wolfswerder 58, 14532 Kleinmachnow, Germany. Upon completing the service, Contentpass becomes your contractual partner. In order to display and thus offer this service to you on our websites, Contentpass processes your IP address on our behalf at the beginning of your website visit. Contentpass is the controller within the meaning of the GDPR for registration and contract processing of Contentpass and the associated data processing. We are solely responsible for the processing of your IP address. You can find further information on data protection directly at Contentpass . The basis for the data processing of the IP address, as part of our contract processing with Contentpass, is our legitimate interest in offering you the opportunity to access our website free of advertising and tracking, and your interest in using our website with virtually no advertising and tracking [Art. 6 (1) (f) GDPR]. Click here to log in with Contentpass or to register . Links to Other Sites We may provide references and/or links to other companies, organizations, and/or public institutions on our website that enable you to access their websites directly from ours. The websites of these entities are governed by the entities’ own privacy policies. Please note that we are not responsible for the content of such websites and cannot accept responsibility for any issues arising in connection with such third parties’ use of your personal data. If you have any queries concerning the way your personal data is processed, used, or stored by such entities, we recommend referring to the privacy policies on the relevant websites. Children’s Privacy Our services or content are not directed, or intended for use by, children under the age of 16 years. Therefore, we do not knowingly collect personal data from children under the age of 16 years. If we become aware that personal data of a child under 16 has been collected, we will take appropriate steps to delete such data. Changes to this Privacy Policy We may periodically modify the provisions of this Privacy Policy and encourage you to review it from time to time in order to stay up to date with the most recent developments in the area of the protection of your personal data. In the event of significant changes, we may also choose to notify you via email should we have your email address in our records. An updated versions of this Privacy Policy will be published on our website. This Privacy Policy was last updated in September 2025. Download Privacy Policy External link Our brands Solutions Research Resources Events About Newsletter Contact us Work here Sitemap Topics Cookies: First-party & third-party Generative AI sponsorships Intent data IP address intelligence Reverse IP lookup Website visitor tracking Legal Terms of Service Privacy / Compliance Environmental Policy Copyright Notice Licensing CCPA IAB Europe TCF Regions ASEAN Australia & New Zealand Central Europe Germany India Middle East, Turkey, & Africa Nordics Southern Europe Western Europe Facebook Twitter LinkedIn ©2026 FoundryCo, Inc. All Rights Reserved. Privacy Policy Ad Choices Privacy Settings California: Do Not Sell My Information | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/ko_kr/AmazonCloudWatch/latest/monitoring/Solution-NVIDIA-GPU-On-EC2.html | CloudWatch 솔루션: Amazon EC2의 NVIDIA GPU 워크로드 - Amazon CloudWatch CloudWatch 솔루션: Amazon EC2의 NVIDIA GPU 워크로드 - Amazon CloudWatch 설명서 Amazon CloudWatch 사용자 가이드 요구 사항 이점 이 솔루션에 대한 CloudWatch 에이전트 구성 솔루션 에이전트 배포 NVIDIA GPU 솔루션 대시보드 생성 CloudWatch 솔루션: Amazon EC2의 NVIDIA GPU 워크로드 이 솔루션을 사용하면 EC2 인스턴스에서 실행되는 NVIDIA GPU 워크로드용 CloudWatch 에이전트를 사용하여 즉시 사용 가능한 지표 컬렉션을 구성할 수 있습니다. 또한, 미리 구성된 CloudWatch 대시보드를 설정하는 데 도움이 됩니다. CloudWatch 관찰성 솔루션 에서 모든 CloudWatch 관찰성 솔루션에 대한 일반 정보를 참조하세요. 주제 요구 사항 이점 이 솔루션에 대한 CloudWatch 에이전트 구성 솔루션 에이전트 배포 NVIDIA GPU 솔루션 대시보드 생성 요구 사항 이 솔루션 관련 조건은 다음과 같습니다. 컴퓨팅: Amazon EC2 지정된 AWS 리전의 모든 EC2 인스턴스에서 최대 500개의 GPU 지원 CloudWatch 에이전트의 최신 버전 EC2 인스턴스에 SSM Agent 설치 EC2 인스턴스에는 NVIDIA 드라이버가 설치되어 있어야 합니다. 일부 Amazon Machine Image(AMI)에는 NVIDIA 드라이버가 사전 설치되어 있습니다. 그렇지 않다면 드라이버를 수동으로 설치하세요. 자세한 내용은 Linux 인스턴스에 NVIDIA 드라이버 설치 를 참조하세요. 참고 AWS Systems Manager(SSM Agent)는 AWS 및 신뢰할 수 있는 타사에서 제공하는 일부 Amazon Machine Images (AMI) 에 사전 설치되어 있습니다. 에이전트가 설치되지 않은 경우 다음 운영 체제 유형에 대한 절차를 사용하여 수동으로 설치할 수 있습니다. Linux용 EC2 인스턴스에 수동으로 SSM 에이전트 설치 및 제거 macOS용 EC2 인스턴스에 수동으로 SSM 에이전트 설치 및 제거 Windows Server용 EC2 인스턴스에 수동으로 SSM 에이전트 설치 및 제거 이점 이 솔루션은 NVIDIA 모니터링을 제공함으로써 다음 사용 사례에 관한 유용한 인사이트를 제공합니다. 성능 병목 현상과 관련된 GPU와 메모리 사용량은 물론, 추가 리소스 요구량도 분석합니다. 온도와 전력 소비를 모니터링하여 GPU가 안전 범위 내에서 작동하는지 확인합니다. GPU 비디오 워크로드의 인코더 성능을 평가합니다. PCIe 연결에서 예상 생성량과 너비를 확인합니다. GPU 클럭 속도를 모니터링하여 규모 조정 및 스로틀링 문제를 감지합니다. 솔루션의 가장 중요한 장점으로는 다음과 같은 것들이 있습니다. CloudWatch 에이전트 구성을 사용하여 NVIDIA의 지표 수집을 자동화함으로써 수동 계측 소요를 없앱니다. NVIDIA 지표에 대해 미리 구성된 통합 CloudWatch 대시보드를 제공합니다. 대시보드는 솔루션을 사용하여 구성된 새 NVIDIA EC2 인스턴스의 지표을 자동으로 처리하며, 이는 해당 대시보드를 처음 생성할 때 해당 지표이 존재하지 않더라도 마찬가지입니다. 다음 이미지는 해당 솔루션의 대시보드 예시입니다. 비용 이 솔루션은 사용자 계정에 리소스를 생성하여 사용합니다. 표준 사용에 대한 요금이 부과되며, 다음 항목들이 포함됩니다. CloudWatch 에이전트가 수집한 지표은 사용자 지정 지표으로 청구됩니다. 이 솔루션에서 사용하는 지표 수는 EC2 호스트 수에 따라 달라집니다. 솔루션에 구성된 각각의 EC2 호스트는 GPU마다 총 17개의 지표을 게시합니다. 사용자 지정 단일 대시보드 지표을 게시하기 위해 CloudWatch 에이전트가 요청한 API 작업입니다. 이 솔루션의 기본 구성을 사용하면 CloudWatch 에이전트가 각각의 EC2 호스트마다 PutMetricData 를 1분에 한 번씩 호출합니다. 즉, 각각의 EC2 호스트에 대해 30일 이내에 PutMetricData API 30*24*60=43,200 가 호출됩니다. CloudWatch 요금에 대한 자세한 내용은 Amazon CloudWatch 요금 을 참조하세요. 요금 계산기는 이 솔루션 사용에 대한 대략적인 월별 비용을 추정하는 데 도움이 될 수 있습니다. 요금 계산기를 사용하여 솔루션 월별 비용을 추정하려면 Amazon CloudWatch 요금 계산기 를 엽니다. 리전 선택 에서 솔루션을 배포하려는 리전을 선택합니다. 지표 섹션의 지표 수 에 17 * average number of GPUs per EC2 host * number of EC2 instances configured for this solution 을(를) 입력합니다. API 섹션의 API 요청 수 에 43200 * number of EC2 instances configured for this solution 을(를) 입력합니다. 기본적으로 CloudWatch 에이전트는 각각의 EC2 호스트마다 PutMetricData 작업을 1분당 하나씩 수행합니다. 대시보드 및 경보 섹션의 대시보드 수 에 1 을(를) 입력합니다. 요금 계산기 하단에서 월별 예상 비용을 확인할 수 있습니다. 이 솔루션에 대한 CloudWatch 에이전트 구성 CloudWatch 에이전트는 서버와 컨테이너화된 환경에서 지속적이고 자율적으로 실행되는 소프트웨어입니다. 인프라와 애플리케이션에서 지표, 로그, 트레이스를 수집하여 CloudWatch와 X-Ray로 전송합니다. CloudWatch에 대한 자세한 내용은 CloudWatch 에이전트를 사용하여 지표, 로그, 트레이스 수집 을(를) 참조하세요. 이 솔루션의 에이전트 구성은 NVIDIA GPU 모니터링 및 관찰을 시작하는 데 도움이 되는 지표 세트를 수집합니다. CloudWatch 에이전트는 대시보드가 기본적으로 표시하는 것보다 더 많은 NVIDIA GPU 지표을 수집하도록 구성할 수 있습니다. 수집할 수 있는 모든 NVIDIA GPU 지표 목록은 NVIDIA GPU 지표 수집 을(를) 참조하세요. 이 솔루션의 에이전트 구성 에이전트가 수집한 지표은 에이전트 구성에 정의되어 있습니다. 이 솔루션은 솔루션 대시보드에 적합한 차원에 권장 지표을 수집하는 에이전트 구성을 제공합니다. NVIDIA GPU 사용 EC2 인스턴스에 다음 CloudWatch 에이전트 구성을 사용합니다. 구성은 뒷부분의 2단계: Systems Manager Parameter Store에 권장 에이전트 구성 파일을 저장 에 설명된 대로 SSM의 Parameter Store에 파라미터로 저장됩니다. { "metrics": { "namespace": "CWAgent", "append_dimensions": { "InstanceId": "$ { aws:InstanceId}" }, "metrics_collected": { "nvidia_gpu": { "measurement": [ "utilization_gpu", "temperature_gpu", "power_draw", "utilization_memory", "fan_speed", "memory_total", "memory_used", "memory_free", "pcie_link_gen_current", "pcie_link_width_current", "encoder_stats_session_count", "encoder_stats_average_fps", "encoder_stats_average_latency", "clocks_current_graphics", "clocks_current_sm", "clocks_current_memory", "clocks_current_video" ], "metrics_collection_interval": 60 } } }, "force_flush_interval": 60 } 솔루션 에이전트 배포 사용 사례에 따라 CloudWatch 에이전트를 설치하는 방법에는 여러 가지가 있습니다. 이 솔루션에는 Systems Manager를 사용하는 것이 좋습니다. Systems Manager는 콘솔 환경을 제공하며 단일 AWS 계정 내에 관리형 서버 플릿을 더 쉽게 관리할 수 있습니다. 이 섹션의 내용은 Systems Manager를 사용하며, 기존 구성으로 CloudWatch 에이전트를 실행하지 않는 경우에 적용할 수 있습니다. CloudWatch 에이전트가 실행 중인지 확인 에 나열된 단계에 따라 CloudWatch 에이전트가 실행 중인지 확인할 수 있습니다. 워크로드가 배포된 EC2 호스트에서 이미 CloudWatch 에이전트를 실행 중이며 에이전트 구성을 관리 중이라면 이 섹션의 내용을 건너뛰어 기존 배포 메커니즘에 따라 구성을 업데이트할 수 있습니다. NVIDIA GPU의 에이전트 구성을 기존 에이전트 구성과 병합한 다음에 병합된 구성을 배포해야 합니다. Systems Manager를 사용하여 CloudWatch 에이전트의 구성을 저장하고 관리하는 경우, 해당 구성을 기존 파라미터 값에 병합할 수 있습니다. 자세한 내용은 CloudWatch 에이전트 구성 파일 관리 를 참조하세요. 참고 Systems Manager를 사용하여 다음 CloudWatch 에이전트 구성을 배포하면 EC2 인스턴스의 기존 CloudWatch 에이전트 구성을 대체하거나 덮어씁니다. 이 구성은 고유한 환경 또는 사용 사례에 맞춰 수정할 수 있습니다. 구성에 정의된 지표은 솔루션을 제공하는 대시보드에 필요한 최소 항목입니다. 이 배포 프로세스는 다음 단계를 통해 이루어집니다. 1단계: 대상 EC2 인스턴스에 필요한 IAM 권한이 있는지 확인합니다. 2단계: Systems Manager Parameter Store에 권장 에이전트 구성 파일을 저장합니다. 3단계: CloudFormation 스택을 사용하여 하나 이상의 EC2 인스턴스에 CloudWatch 에이전트를 설치합니다. 4단계: 에이전트 설정이 올바르게 구성되었는지 확인합니다. 1단계: 대상 EC2 인스턴스에 필요한 IAM 권한이 있는지 확인 Systems Manager가 CloudWatch 에이전트를 설치하고 구성할 수 있도록 권한을 부여해야 합니다. 또한, CloudWatch 에이전트가 EC2 인스턴스에서 CloudWatch로 원격 측정을 게시할 수 있는 권한을 부여해야 합니다. 인스턴스에 연결된 IAM 역할에 CloudWatchAgentServerPolicy 와 AmazonSSMManagedInstanceCore IAM 정책이 연결되어 있는지 확인합니다. 역할이 생성된 후에는 해당 역할을 EC2 인스턴스에 연결합니다. EC2 인스턴스에 역할을 연결하려면 인스턴스에 IAM 역할 연결 의 단계를 따릅니다. 2단계: Systems Manager Parameter Store에 권장 에이전트 구성 파일을 저장 Parameter Store는 구성 파라미터를 안전하게 저장하고 관리하여 EC2 인스턴스에 CloudWatch 에이전트 설치하는 작업을 간소화하므로 하드 코딩 값이 필요 없습니다. 이를 통해 보다 안전하고 유연한 배포 프로세스를 보장하며 중앙 집중식 관리를 가능하게 하는 동시에 다양한 인스턴스에서 구성을 더 쉽게 업데이트할 수 있습니다. 다음 단계에 따라 권장 CloudWatch 에이전트 구성 파일을 Parameter Store에 파라미터로 저장합니다. CloudWatch 에이전트 구성 파일을 파라미터로 생성하려면 AWS Systems Manager 콘솔( https://console.aws.amazon.com/systems-manager/ )을 엽니다. 콘솔에서 선택한 리전이 NVIDIA GPU 워크로드가 실행 중인 리전인지 확인합니다. 탐색 창에서 애플리케이션 관리 와 Parameter Store 를 선택합니다. 다음 단계에 따라 새 구성 파라미터를 생성합니다. 파라미터 생성(Create parameter) 을 선택합니다. 이름 상자에 이후 단계에서 CloudWatch 에이전트 구성 파일을 참조하는 데 사용할 이름을 입력합니다. 예를 들어 AmazonCloudWatch-NVIDIA-GPU-Configuration 입니다. (선택 사항) Description 상자에 파라미터 설명을 입력합니다. 파라미터 계층 에서 표준 을 선택합니다. Type(유형) 에서 문자열 을 선택합니다. 데이터 유형 에는 텍스트 를 선택합니다. 값 상자에 이 솔루션의 에이전트 구성 에 목록으로 표시된 해당 JSON 블록을 붙여넣습니다. 파라미터 생성(Create parameter) 을 선택합니다. 3단계: CloudWatch 에이전트를 설치하고 CloudFormation 템플릿을 사용하여 구성을 적용 AWS CloudFormation을(를) 사용하여 에이전트를 설치하고 이를 이전 단계에서 생성한 CloudWatch 에이전트 구성을 사용하도록 구성할 수 있습니다. 이 솔루션의 CloudWatch 에이전트를 설치하고 구성하려면 https://console.aws.amazon.com/cloudformation/home?#/stacks/quickcreate?templateURL=https://aws-observability-solutions-prod-us-east-1.s3.us-east-1.amazonaws.com/CloudWatchAgent/CFN/v1.0.0/cw-agent-installation-template-1.0.0.json 링크를 사용하여 CloudFormation 빠른 스택 생성 마법사를 엽니다. 콘솔에서 선택한 리전이 NVIDIA GPU 워크로드가 실행 중인 리전인지 확인합니다. 스택 이름 에 스택의 이름을 CWAgentInstallationStack 등과 같이 입력합니다. 파라미터 섹션에는 다음과 같이 지정합니다. CloudWatchAgentConfigSSM 에는 이전에 생성한 에이전트 구성의 Systems Manager 파라미터 이름을 AmazonCloudWatch-NVIDIA-GPU-Configuration 등과 같이 입력합니다. 대상 인스턴스를 선택할 때 사용할 수 있는 두 가지 옵션이 있습니다. InstanceIds 에는 이 구성으로 CloudWatch 에이전트를 설치하려는 인스턴스 ID에서 쉼표로 구분된 인스턴스 ID 목록을 지정합니다. 단일 인스턴스나 여러 인스턴스를 목록 지정할 수 있습니다. 대규모 배포 시에는 TagKey 와 해당 TagValue 를 지정하여 해당 태그와 값을 사용하는 모든 EC2 인스턴스를 대상으로 지정할 수 있습니다. TagKey 를 지정하는 경우 관련된 TagValue 를 지정해야 합니다. (Auto Scaling 그룹에서는 TagKey 를 aws:autoscaling:groupName 처럼 지정하고 Auto Scaling 그룹 내의 모든 인스턴스에 배포할 TagValue 의 Auto Scaling 그룹 이름을 지정합니다.) 설정을 검토한 다음 스택 생성 을 선택합니다. 템플릿 파일을 먼저 편집하여 사용자 지정하려면 스택 생성 마법사 에서 템플릿 파일 업로드 옵션을 선택하여 편집된 템플릿을 업로드합니다. 자세한 내용은 CloudFormation 콘솔에서 스택 생성 단원을 참조하세요. 참고 이 단계가 완료되면 이 Systems Manager 파라미터는 대상 인스턴스에서 실행되는 CloudWatch 에이전트와 연결됩니다. 이는 다음을 의미합니다. Systems Manager 파라미터가 삭제되면 에이전트가 중지됩니다. Systems Manager 파라미터를 편집하면 기본값인 30일로 예약된 빈도로 에이전트에 구성 변경 사항이 자동으로 적용됩니다. 이 Systems Manager 파라미터에 변경 사항을 즉시 적용하려면 이 단계를 다시 실행해야 합니다. 자세한 내용은 Systems Manager에서 연결 작업 을 참조하세요. 4단계: 에이전트 설정이 올바르게 구성되었는지 확인 CloudWatch 에이전트가 실행 중인지 확인 에 나열된 단계에 따라 CloudWatch 에이전트가 설치되었는지 확인할 수 있습니다. CloudWatch 에이전트가 설치되어 실행되지 않는 경우 모든 항목을 올바르게 설정했는지 확인합니다. 1단계: 대상 EC2 인스턴스에 필요한 IAM 권한이 있는지 확인 에서 설명한 대로 EC2 인스턴스에 올바른 권한이 있는 역할을 연결했는지 확인합니다. Systems Manager 파라미터의 JSON을 올바르게 구성했는지 확인합니다. CloudFormation을 사용한 CloudWatch 에이전트 설치 문제 해결 섹션의 단계를 따르세요. 모든 것이 올바르게 설정된 경우 CloudWatch에 게시되는 NVIDIA GPU 지표이 표시됩니다. CloudWatch 콘솔을 확인하여 게시되고 있는지 확인할 수 있습니다. NVIDIA GPU 지표이 CloudWatch에 게시되고 있는지 확인하려면 https://console.aws.amazon.com/cloudwatch/ 에서 CloudWatch 콘솔을 엽니다. 지표 , 전체 지표 을 선택합니다. 솔루션을 배포한 리전을 선택하고 사용자 지정 네임스페이스 , CWAgent 를 선택합니다. nvidia_smi_utilization_gpu 과(와) 같이 이 솔루션의 에이전트 구성 에 언급된 지표을 검색합니다. 해당 지표에 대한 결과가 표시되면 지표은 CloudWatch에 게시 중입니다. NVIDIA GPU 솔루션 대시보드 생성 이 솔루션에서 제공하는 대시보드는 모든 인스턴스에서 지표을 집계하고 제시하여 NVIDIA GPU 지표을 제공합니다. 대시보드에는 지표별 상위 기여자(지표 위젯당 상위 10개)의 세부 정보가 표시됩니다. 이를 통해 관찰된 지표에 크게 기여하는 인스턴스나 이상치를 빠르게 식별할 수 있습니다. 대시보드를 생성하기 위해 사용할 수 있는 옵션은 다음과 같습니다. CloudWatch 콘솔을 사용하여 대시보드를 생성합니다. AWS CloudFormation 콘솔을 사용하여 대시보드를 배포합니다. AWS CloudFormation 인프라를 코드로 다운로드하여 지속적 통합(CI) 자동화에 통합합니다. CloudWatch 콘솔을 사용하여 대시보드를 생성하면 실제 생성 및 청구 전에 대시보드를 미리 볼 수 있습니다. 참고 이 솔루션에서 CloudFormation(으)로 생성된 대시보드에는 솔루션이 배포된 리전의 지표이 표시됩니다. NVIDIA GPU 지표이 게시되는 리전에서 CloudFormation 스택을 생성해야 합니다. 사용자 지정 네임스페이스를 CloudWatch 에이전트 구성의 CWAgent 이외의 네임스페이스로 지정하는 경우 대시보드의 CloudFormation 템플릿을 변경하여 사용 중인 사용자 지정 네임스페이스로 CWAgent를 바꿔야 합니다. CloudWatch 콘솔을 통해 대시보드를 생성하려면 https://console.aws.amazon.com/cloudwatch/home?#dashboards?dashboardTemplate=NvidiaGpuOnEc2&referrer=os-catalog 링크를 사용하여 CloudWatch 클라우드의 대시보드 생성 을 엽니다. 콘솔에서 선택한 리전이 NVIDIA GPU 워크로드가 실행 중인 리전인지 확인합니다. 대시보드의 이름을 입력하고 대시보드 생성 을 선택합니다. 이 대시보드를 다른 리전의 비슷한 대시보드와 쉽게 구분하려면 NVIDIA-GPU-Dashboard-us-east-1 처럼 대시보드 이름에 리전 이름을 포함하는 것이 좋습니다. 대시보드를 미리 보고 저장 을 선택하여 대시보드를 생성합니다. CloudFormation을(를) 통해 대시보드를 생성하려면 https://console.aws.amazon.com/cloudformation/home?#/stacks/quickcreate?templateURL=https://aws-observability-solutions-prod-us-east-1.s3.us-east-1.amazonaws.com/NVIDIA_GPU_EC2/CloudWatch/CFN/v1.0.0/dashboard-template-1.0.0.json 링크를 사용하여 CloudFormation 빠른 스택 생성 마법사를 엽니다. 콘솔에서 선택한 리전이 NVIDIA GPU 워크로드가 실행 중인 리전인지 확인합니다. 스택 이름 에 스택의 이름을 NVIDIA-GPU-DashboardStack 등과 같이 입력합니다. 파라미터 섹션에서 DashboardName 파라미터 아래에 대시보드 이름을 지정합니다. 이 대시보드를 다른 리전의 비슷한 대시보드와 쉽게 구분하려면 NVIDIA-GPU-Dashboard-us-east-1 처럼 대시보드 이름에 리전 이름을 포함하는 것이 좋습니다. 기능 및 변환 에서 변환에 대한 액세스 기능을 확인합니다. CloudFormation은 IAM 리소스를 추가하지 않습니다. 설정을 검토한 다음 스택 생성 을 선택합니다. 스택 상태가 CREATE_COMPLETE 가 되면, 생성된 스택에서 리소스 탭을 선택한 다음 물리적 ID 의 링크를 선택하여 대시보드로 이동합니다. 콘솔의 왼쪽 탐색 창에서 대시보드 를 선택하고 사용자 지정 대시보드 에서 대시보드 이름을 찾아 CloudWatch 콘솔의 대시보드에 액세스할 수도 있습니다. 템플릿 파일을 편집하여 범용으로 사용자 지정하려면 스택 생성 마법사 의 템플릿 파일 업로드 옵션을 사용하여 편집된 템플릿을 업로드하면 됩니다. 자세한 내용은 CloudFormation 콘솔에서 스택 생성 단원을 참조하세요. https://aws-observability-solutions-prod-us-east-1.s3.us-east-1.amazonaws.com/NVIDIA_GPU_EC2/CloudWatch/CFN/v1.0.0/dashboard-template-1.0.0.json 링크를 사용하여 템플릿을 다운로드할 수 있습니다. NVIDIA GPU 대시보드 시작하기 새 NVIDIA GPU 대시보드로 시도해 볼 수 있는 작업들 가운데는 다음과 같은 것이 있습니다. 이들 작업을 통해 대시보드가 올바르게 작동하는지 확인하고 이를 사용하여 NVIDIA GPU 모니터링과 관련된 몇 가지 실습 경험을 제공할 수 있습니다. 이들 작업을 직접 실행해 보면 대시보드 탐색 및 시각화된 지표 해석에 익숙해질 수 있습니다. GPU 사용률 검토 사용률 섹션에서 GPU 사용률 위젯과 메모리 사용률 위젯을 찾습니다. 이들 위젯에서는 GPU가 연산에 적극적으로 사용되는 시간을 백분율로 환산한 값과 각각 읽기 또는 쓰기되는 전역 메모리를 백분율로 환산한 값을 보여줍니다. 사용률이 높다는 것은 잠재적으로 성능 병목 현상이 있거나 추가 GPU 리소스가 필요하다는 의미일 수 있습니다. GPU 메모리 사용량 분석 메모리 섹션에서 총 메모리 위젯, 사용된 메모리 위젯, 미사용 메모리 위젯을 찾습니다. 이들 위젯에서는 GPU의 전체 메모리 용량에 대한 인사이트와 함께 현재 사용 중이거나 사용할 수 있는 메모리 용량에 대한 인사이트를 얻을 수 있습니다. 메모리 압박은 성능 문제나 메모리 부족 오류로 이어질 수 있으므로 이러한 지표를 모니터링하고 워크로드에 충분한 메모리를 제공하는 것이 중요합니다. 온도 및 전력 소비 모니터링 온도/전력 섹션에서 GPU 온도 위젯과 전력 소비 위젯을 찾습니다. 이들 지표에서는 GPU가 온도 및 전력과 관련하여 안전 범위 내에서 작동하도록 하는 데 필수적입니다. 인코더 성능 식별 인코더 섹션에서 인코더 세션 수 위젯, 평균 FPS 위젯, 평균 지연 시간 위젯을 찾습니다. GPU에서 비디오 인코딩 워크로드를 실행하는 경우, 이들 지표과 관련이 있습니다. 이들 지표을 모니터링하여 인코더 작동이 최적으로 이루어지는지 확인하고 잠재적인 병목 현상 또는 성능 문제를 식별합니다. PCIe 링크 상태 확인 PCIe 섹션에서 PCIe 링크 생성 위젯과 PCIe 링크 너비 위젯을 찾습니다. 이들 지표에서는 GPU를 호스트 시스템에 연결하는 PCIe 링크에 대한 정보를 제공합니다. PCIe 병목 현상으로 인한 잠재적 성능 한계를 피하려면 링크가 예상 생성량 및 너비로 작동하는지 확인합니다. GPU 클럭 검토 클럭 섹션에서 그래픽 클럭 위젯, SM 클럭 위젯, 메모리 클럭 위젯, 비디오 클럭 위젯을 찾습니다. 이들 지표에서는 다양한 GPU 구성 요소의 현재 작동 빈도를 보여줍니다. 이와 관련된 클럭을 모니터링하면 성능에 영향을 미칠 수 있는 GPU 클럭 규모 조정이나 주파수 스로틀링과 관련된 잠재적 문제를 식별하는 데 도움이 될 수 있습니다. javascript가 브라우저에서 비활성화되거나 사용이 불가합니다. AWS 설명서를 사용하려면 Javascript가 활성화되어야 합니다. 지침을 보려면 브라우저의 도움말 페이지를 참조하십시오. 문서 규칙 EC2의 NGINX 워크로드 EC2의 Kafka 워크로드 이 페이지의 내용이 도움이 되었습니까? - 예 칭찬해 주셔서 감사합니다! 잠깐 시간을 내어 좋았던 부분을 알려 주시면 더 열심히 만들어 보겠습니다. 이 페이지의 내용이 도움이 되었습니까? - 아니요 이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오. | 2026-01-13T09:29:26 |
https://foundryco.com/copyright-notice/ | Copyright Infringement Policy and Reporting Guide | Foundry Skip to content Search Contact us Translation available Select an experience Japan Global Search for: Search Brands CIO CSO InfoWorld Network World Computerworld Macworld PCWorld Tech Advisor TechHive ChannelWorld Specialty brands CIO100 CSO50 All brands Audiences Artificial intelligence Cloud Security Hardware Software All audiences Solutions Ads Audiences Lead gen Intent data Brand experiences Interactive storytelling Events Partner marketing Content creation Affiliate marketing All solutions Research Technology insights AI Priorities CIO Tech Priorities Cloud Computing Security Priorities State of the CIO Buying process Customer Engagement Role & Influence Partner Marketing All research Resources Resources Tools for marketers Blog Videos Customer stories Developer portal The Intersection newsletter All resources About us Press Awards Work here Privacy / Compliance Licensing About Us Brands CIO CSO InfoWorld Network World Computerworld Macworld PCWorld Tech Advisor TechHive ChannelWorld Specialty brands CIO 100 CSO50 All brands Audiences Artificial intelligence Cloud Security Hardware Software All audiences Solutions Ads Lead gen Intent data Brand experiences Interactive storytelling Events Partner marketing Content creation Affiliate marketing All solutions Research Technology insights AI Priorities CIO Tech Priorities Cloud Computing Security Priorities State of the CIO Buying process Customer Engagement Role & Influence Partner Marketing All research Resources Resources Tools for marketers Blog Videos Customer stories Developer Portal The Intersection newsletter All Resources About us Press Awards Work here Privacy / Compliance Licensing About Us Contact Log in Edition - Select an experience Japan Global FoundryCo, Inc. Copyright Notice FoundryCo, Inc. (“Foundry”) respects the rights of copyright owners. If you believe that your work has been used in a way that constitutes copyright infringement, please contact Foundry by e-mailing foundry.legal@foundryco.com or by sending notice to the address listed below with the following information: A description of the copyrighted work that is allegedly being infringed; Identification of the: (i) copyrighted work(s) being infringed; (ii) the infringing activity; and (iii) the location of the infringing activity (typically by providing the URL); Your contact information, including an email address; A statement that you have a good faith belief that the infringing copyright work(s) is not authorized by the intellectual property or copyright owner, its agent, or the law; and A statement that the information provided is accurate and you are authorized to make the complaint on behalf of the rightful copyright owner; The signature of the copyright owner or its agent, in physical or electronic form. For copyright notices, please contact: Email: foundry.legal@foundryco.com Mail: FoundryCo, Inc. 501 2nd Street, Suite 650 San Francisco California 94107 USA Attn: Legal Department Our brands Solutions Research Resources Events About Newsletter Contact us Work here Sitemap Topics Cookies: First-party & third-party Generative AI sponsorships Intent data IP address intelligence Reverse IP lookup Website visitor tracking Legal Terms of Service Privacy / Compliance Environmental Policy Copyright Notice Licensing CCPA IAB Europe TCF Regions ASEAN Australia & New Zealand Central Europe Germany India Middle East, Turkey, & Africa Nordics Southern Europe Western Europe Facebook Twitter LinkedIn ©2026 FoundryCo, Inc. All Rights Reserved. Privacy Policy Ad Choices Privacy Settings California: Do Not Sell My Information | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/pt_br/AmazonCloudWatch/latest/monitoring/CloudWatch_Automatic_Dashboards_Focus_Service.html | Visualização de um painel do CloudWatch para um único serviço da AWS - Amazon CloudWatch Visualização de um painel do CloudWatch para um único serviço da AWS - Amazon CloudWatch Documentação Amazon CloudWatch Guia do usuário Visualização de um painel do CloudWatch para um único serviço da AWS Na página inicial do CloudWatch, concentre a exibição em um único produto da AWS. Detalhe ainda mais se concentrando em um único serviço da AWS e em um grupo de recursos ao mesmo tempo. O procedimento a seguir só mostra como se concentrar em um serviço da AWS. Para se concentrar em um único serviço Abra o console do CloudWatch, em https://console.aws.amazon.com/cloudwatch/ . A página inicial é exibida. Em Visão geral , onde Visão geral é exibida atualmente na lista suspensa, escolha Painéis de serviços . Escolha o serviço no qual deseja se concentrar. A exibição muda para exibir gráficos de métricas-chave do serviço selecionado. Para alternar para a visualização dos alarmes desse serviço, marque a caixa de seleção Em alarme , Dados insuficientes ou OK na parte superior da tela onde o nome do serviço é exibido atualmente. Ao exibir métricas, concentre-se em uma determinada métrica de várias maneiras: Para ver mais detalhes sobre as métricas em qualquer gráfico, passe o mouse sobre o gráfico e escolha o ícone de ações View in metrics (Exibir em métricas) . O gráfico é exibido em uma nova guia, com as métricas relevantes listadas abaixo do gráfico. Personalize a exibição desse gráfico, alterando as métricas e os recursos mostrados, a estatística, o período e outros fatores para obter uma compreensão melhor da situação atual. Exiba os eventos de log no intervalo de tempo mostrado no gráfico. Isso pode ajudar a descobrir eventos acontecidos na infraestrutura que estão causando uma alteração inesperada nas métricas. Para consultar os eventos de log, passe o mouse sobre o gráfico e escolha o ícone de ações View in logs (Exibir em logs) . A exibição do CloudWatch Logs é visualizada em uma nova guia com uma lista dos grupos de logs. Para consultar os eventos de log em um desses grupos de logs ocorridos durante o período mostrado no gráfico original, escolha esse grupo de logs. Ao exibir alarmes, concentre-se em um determinado alarme de várias maneiras: Para consultar mais detalhes sobre um alarme, passe o mouse sobre o alarme e escolha o ícone View in alarms (Exibir em alarmes) . A exibição de alarmes é mostrada em uma nova guia, exibindo uma lista dos alarmes, além de detalhes sobre o alarme escolhido. Para consultar o histórico desse alarme, escolha a guia History (Histórico) . Os alarmes são sempre atualizados uma vez por minuto. Para atualizar a exibição, escolha o ícone de atualização (duas setas curvas) na parte superior direita da tela. Para alterar a taxa de renovação automática de itens na tela que não sejam alarmes, escolha a seta para baixo ao lado do ícone de atualização e escolha uma taxa de atualização. Também opte por desativar a atualização automática. Para alterar o intervalo de tempo mostrado em todos os gráficos e alarmes exibidos atualmente ao lado de Time range (Intervalo de tempo) na parte superior da tela, escolha o intervalo. Para selecionar mais opções de intervalo de tempo do que as exibidas por padrão, escolha custom (personalizada) . Para retornar ao painel entre serviços, escolha Overview (Visão geral) na lista na parte superior da tela que atualmente mostra o serviço no qual você está se concentrando. Como alternativa, em qualquer exibição, escolha CloudWatch na parte superior da tela para limpar todos os filtros e retornar à página de visão geral. O Javascript está desativado ou não está disponível no seu navegador. Para usar a documentação da AWS, o Javascript deve estar ativado. Consulte as páginas de Ajuda do navegador para obter instruções. Convenções do documento Remoção de um serviço da exibição no painel entre serviços Visualização de um painel para um grupo de recursos Essa página foi útil? - Sim Obrigado por nos informar que estamos fazendo um bom trabalho! Se tiver tempo, conte-nos sobre o que você gostou para que possamos melhorar ainda mais. Essa página foi útil? - Não Obrigado por nos informar que precisamos melhorar a página. Lamentamos ter decepcionado você. Se tiver tempo, conte-nos como podemos melhorar a documentação. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/id_id/AmazonCloudWatch/latest/monitoring/Solution-NGINX-On-EC2.html | CloudWatch solusi: Beban kerja NGINX di Amazon EC2 - Amazon CloudWatch CloudWatch solusi: Beban kerja NGINX di Amazon EC2 - Amazon CloudWatch Dokumentasi Amazon CloudWatch Panduan Pengguna Persyaratan Manfaat Biaya CloudWatch konfigurasi agen untuk solusi ini Menyebarkan agen untuk solusi Anda Buat dasbor solusi NGINX Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris. CloudWatch solusi: Beban kerja NGINX di Amazon EC2 Solusi ini membantu Anda mengonfigurasi pengumpulan out-of-the-box metrik menggunakan CloudWatch agen untuk aplikasi NGINX yang berjalan pada EC2 instance. Untuk informasi umum tentang semua solusi CloudWatch observabilitas, lihat CloudWatch solusi observabilitas . Topik Persyaratan Manfaat Biaya CloudWatch konfigurasi agen untuk solusi ini Menyebarkan agen untuk solusi Anda Buat dasbor solusi NGINX Persyaratan Solusi ini relevan untuk kondisi berikut: Versi yang didukung: NGINX versi 1.24 Hitung: Amazon EC2 Mendukung hingga 500 EC2 instans di semua beban kerja NGINX dalam satu Wilayah AWS Versi terbaru dari CloudWatch agent Prometheus Eksportir: nginxinc/ (lisensi Apache 2.0) nginx-prometheus-exporter Agen SSM diinstal pada contoh EC2 catatan AWS Systems Manager (Agen SSM) sudah diinstal sebelumnya pada beberapa Amazon Machine Images (AMIs) yang disediakan oleh AWS dan pihak ketiga tepercaya. Jika agen tidak diinstal, Anda dapat menginstalnya secara manual menggunakan prosedur untuk jenis sistem operasi Anda. Menginstal dan menghapus instalan Agen SSM secara manual pada EC2 instance untuk Linux Menginstal dan menghapus instalan Agen SSM secara manual pada EC2 instance untuk macOS Menginstal dan menghapus instalan Agen SSM secara manual pada EC2 instance untuk Windows Server Manfaat Solusi ini memberikan pemantauan NGINX, memberikan wawasan berharga untuk kasus penggunaan berikut: Tinjau metrik koneksi untuk mengidentifikasi potensi kemacetan, masalah koneksi, atau penggunaan yang tidak terduga. Analisis volume permintaan HTTP untuk memahami beban lalu lintas keseluruhan pada NGINX. Di bawah ini adalah keuntungan utama dari solusi ini: Mengotomatiskan pengumpulan metrik untuk NGINX menggunakan konfigurasi CloudWatch agen, menghilangkan instrumentasi manual. Menyediakan CloudWatch dasbor terkonsolidasi yang telah dikonfigurasi sebelumnya untuk metrik NGINX. Dasbor akan secara otomatis menangani metrik dari EC2 instans NGINX baru yang dikonfigurasi menggunakan solusi, bahkan jika metrik tersebut tidak ada saat Anda pertama kali membuat dasbor. Gambar berikut adalah contoh dasbor untuk solusi ini. Biaya Solusi ini membuat dan menggunakan sumber daya di akun Anda. Anda dikenakan biaya untuk penggunaan standar, termasuk yang berikut: Semua metrik yang dikumpulkan oleh CloudWatch agen untuk solusi ini dipublikasikan ke CloudWatch Log menggunakan Embedded Metric Format (EMF). CloudWatch Log ini dibebankan berdasarkan volume dan periode retensi mereka. Oleh karena itu, Anda tidak akan ditagih untuk panggilan PutMetricData API apa pun untuk solusi ini. Metrik yang diekstraksi dan dicerna dari log Anda dikenakan biaya sebagai metrik khusus. Jumlah metrik yang digunakan oleh solusi ini tergantung pada jumlah EC2 host. Setiap EC2 host NGINX yang dikonfigurasi untuk solusi menerbitkan total delapan metrik. Satu dasbor khusus. Untuk informasi selengkapnya tentang CloudWatch harga, lihat CloudWatch Harga Amazon . Kalkulator harga dapat membantu Anda memperkirakan perkiraan biaya bulanan untuk menggunakan solusi ini. Untuk menggunakan kalkulator harga untuk memperkirakan biaya solusi bulanan Anda Buka kalkulator CloudWatch harga Amazon . Untuk Pilih Wilayah , pilih Wilayah AWS tempat Anda ingin menerapkan solusi. Di bagian Metrik , untuk Jumlah metrik, masukkan . 8 * number of EC2 instances configured for this solution Di bagian Log , untuk Log Standar: Data Tertelan , masukkan perkiraan volume log harian yang dihasilkan oleh CloudWatch Agen di semua EC2 host. Misalnya, lima EC2 instance menghasilkan kurang dari 1000 byte per hari. Setelah diatur, Anda dapat memeriksa penggunaan byte Anda menggunakan IncomingBytes metrik, yang dijual oleh CloudWatch Log. Pastikan untuk memilih grup log yang sesuai. Di bagian Log , untuk Penyimpanan/Arsip Log (Log Standar dan Penjual), pilih. Yes to Store Logs: Assuming 1 month retention Ubah nilai ini jika Anda memutuskan untuk membuat perubahan khusus pada periode retensi. Di bagian Dasbor dan Alarm , untuk Jumlah Dasbor , masukkan. 1 Anda dapat melihat perkiraan biaya bulanan Anda di bagian bawah kalkulator harga. CloudWatch konfigurasi agen untuk solusi ini CloudWatch Agen adalah perangkat lunak yang berjalan terus menerus dan mandiri di server Anda dan di lingkungan kontainer. Ini mengumpulkan metrik, log, dan jejak dari infrastruktur dan aplikasi Anda dan mengirimkannya ke dan CloudWatch X-Ray. Untuk informasi lebih lanjut tentang CloudWatch agen, lihat Kumpulkan metrik, log, dan jejak menggunakan agen CloudWatch . Konfigurasi agen dalam solusi ini mengumpulkan satu set metrik untuk membantu Anda mulai memantau dan mengamati beban kerja NGINX Anda. CloudWatch Agen dapat dikonfigurasi untuk mengumpulkan lebih banyak metrik NGINX daripada tampilan dasbor secara default. Untuk daftar semua metrik NGINX yang dapat Anda kumpulkan, lihat Metrik untuk NGINX OSS. Sebelum mengonfigurasi CloudWatch agen, Anda harus terlebih dahulu mengonfigurasi NGINX untuk mengekspos metriknya. Kedua, Anda harus menginstal dan mengkonfigurasi eksportir metrik Prometheus pihak ketiga. Paparkan metrik NGINX catatan Perintah berikut adalah untuk Linux. Periksa NGINX untuk halaman Windows untuk perintah yang setara di Windows Server. Anda harus mengaktifkan stub_status modul terlebih dahulu. Tambahkan blok lokasi baru di file konfigurasi NGINX Anda. Tambahkan baris berikut di server blok Anda nginx.conf untuk mengaktifkan modul NGINX: stub_status location /nginx_status { stub_status on; allow 127.0.0.1; # Allow only localhost to access deny all; # Deny all other IPs } Sebelum memuat ulang NGINX, validasi konfigurasi NGINX Anda: sudo nginx -t Perintah validasi ini membantu mencegah kesalahan yang tidak terduga, yang dapat menyebabkan situs web Anda rusak. Contoh berikut menunjukkan respons yang berhasil: nginx: the configuration file /etc/nginx/nginx.conf syntax is ok nginx: configuration file /etc/nginx/nginx.conf test is successful Setelah Anda berhasil memvalidasi konfigurasi yang diperbarui, muat ulang NGINX (tidak ada output yang diharapkan): sudo systemctl reload nginx Perintah ini menginstruksikan proses NGINX untuk memuat ulang konfigurasi. Reload lebih anggun dibandingkan dengan restart penuh. Muat ulang memulai proses pekerja baru dengan konfigurasi baru, dengan anggun mematikan proses pekerja lama. Uji titik akhir status NGINX: curl http://127.0.0.1/nginx_status Contoh berikut menunjukkan respons yang berhasil: Active connections: 1 server accepts handled requests 6 6 6 Reading: 0 Writing: 1 Waiting: 0 Contoh berikut menunjukkan respons kegagalan (tinjau langkah-langkah sebelumnya sebelum melanjutkan): <!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.1//EN" "http://www.w3.org/TR/xhtml11/DTD/xhtml11.dtd"> <html xmlns="http://www.w3.org/1999/xhtml" xml:lang="en"> <head> <title>The page is not found</title> ... Konfigurasikan eksportir metrik Prometheus Unduh rilis eksportir NGINX Prometheus terbaru dari repositori resmi. GitHub Anda harus mengunduh biner yang relevan untuk platform Anda. Contoh berikut menunjukkan perintah untuk AMD64: cd /tmp wget https://github.com/nginxinc/nginx-prometheus-exporter/releases/download/v1.3.0/nginx-prometheus-exporter_1.3.0_linux_amd64.tar.gz tar -xzvf nginx-prometheus-exporter_1.3.0_linux_amd64.tar.gz sudo cp nginx-prometheus-exporter /usr/local/bin/ rm /tmp/nginx-prometheus-exporter* Jalankan eksportir Prometheus dan arahkan ke halaman status rintisan NGINX: nohup /usr/local/bin/nginx-prometheus-exporter -nginx.scrape-uri http://127.0.0.1/nginx_status &>/dev/null & Contoh berikut menunjukkan respon (ID pekerjaan latar belakang dan PID): [1] 74699 Uji titik akhir Prometheus NGINX Validasi bahwa eksportir Prometheus NGINX telah mulai mengekspos metrik yang relevan: curl http://localhost: port-number /metrics Contoh berikut menunjukkan respons yang berhasil: # HELP go_gc_duration_seconds A summary of the pause duration of garbage collection cycles. # TYPE go_gc_duration_seconds summary go_gc_duration_seconds { quantile="0"} 0 go_gc_duration_seconds { quantile="0.25"} 0 ... # HELP nginx_connections_accepted Accepted client connections # TYPE nginx_connections_accepted counter nginx_connections_accepted 14 # HELP nginx_connections_active Active client connections # TYPE nginx_connections_active gauge nginx_connections_active 1 ... # TYPE promhttp_metric_handler_requests_total counter promhttp_metric_handler_requests_total { code="200"} 1 promhttp_metric_handler_requests_total { code="500"} 0 promhttp_metric_handler_requests_total { code="503"} 0 Konfigurasi agen untuk solusi ini Metrik yang dikumpulkan oleh agen ditentukan dalam konfigurasi agen. Solusi ini menyediakan konfigurasi agen untuk mengumpulkan metrik yang direkomendasikan dengan dimensi yang sesuai untuk dasbor solusi. Langkah-langkah untuk menerapkan solusi dijelaskan nanti di Menyebarkan agen untuk solusi Anda . Informasi berikut dimaksudkan untuk membantu Anda memahami cara menyesuaikan konfigurasi agen untuk lingkungan Anda. Anda harus menyesuaikan beberapa bagian agen dan konfigurasi Prometheus untuk lingkungan Anda seperti nomor port yang digunakan oleh eksportir Prometheus. Port yang digunakan oleh eksportir Prometheus dapat diverifikasi menggunakan perintah berikut: sudo netstat -antp | grep nginx-prom Contoh berikut menunjukkan respons (lihat nilai port 9113): tcp6 0 0 :::9113 :::* LISTEN 76398/nginx-prometh Konfigurasi agen untuk host NGINX CloudWatch Agen dengan pemantauan Prometheus membutuhkan dua konfigurasi untuk mengikis metrik Prometheus. Setiap konfigurasi akan disimpan sebagai parameter terpisah di Parameter Store SSM, seperti yang dijelaskan nanti. Langkah 2: Simpan file konfigurasi CloudWatch agen yang direkomendasikan di Systems Manager Parameter Store Konfigurasi pertama adalah untuk eksportir Prometheus, seperti yang didokumentasikan dalam dokumentasi scrape_config Prometheus. Konfigurasi kedua adalah untuk CloudWatch agen. Konfigurasi Prometheus Ganti port-number dengan port server Anda. global: scrape_interval: 30s scrape_timeout: 10s scrape_configs: - job_name: 'nginx' metrics_path: /metrics static_configs: - targets: ['localhost: port-number '] ec2_sd_configs: - port: port-number relabel_configs: - source_labels: ['__meta_ec2_instance_id'] target_label: InstanceId metric_relabel_configs: - source_labels: ['__name__'] regex: 'nginx_up|nginx_http_requests_total|nginx_connections_.*' action: keep CloudWatch konfigurasi agen Sesuai konfigurasi CloudWatch agen sebelumnya, metrik ini diterbitkan melalui CloudWatch Log menggunakan format metrik tertanam (EMF ). Log ini dikonfigurasi untuk menggunakan grup log nginx . Anda dapat menyesuaikan log_group_name dengan nama berbeda yang mewakili CloudWatch log. Jika Anda menggunakan Windows Server, atur prometheus_config_path konfigurasi berikut ke C:\\ProgramData\\Amazon\\AmazonCloudWatchAgent\\prometheus.yaml . { "agent": { "metrics_collection_interval": 60 }, "logs": { "metrics_collected": { "prometheus": { "log_group_name": "nginx", "prometheus_config_path": "/opt/aws/amazon-cloudwatch-agent/etc/prometheus.yaml", "emf_processor": { "metric_declaration_dedup": true, "metric_namespace": "CWAgent", "metric_declaration":[ { "source_labels":["InstanceId"], "metric_selectors":["nginx_up", "nginx_http_requests_total", "nginx_connections*"], "dimensions": [["InstanceId"]] } ] } } } } } Menyebarkan agen untuk solusi Anda Ada beberapa pendekatan untuk menginstal CloudWatch agen, tergantung pada kasus penggunaan. Sebaiknya gunakan Systems Manager untuk solusi ini. Ini memberikan pengalaman konsol dan membuatnya lebih mudah untuk mengelola armada server yang dikelola dalam satu AWS akun. Petunjuk di bagian ini menggunakan Systems Manager dan ditujukan untuk saat Anda tidak menjalankan CloudWatch agen dengan konfigurasi yang ada. Anda dapat memeriksa apakah CloudWatch agen berjalan dengan mengikuti langkah-langkah di Verifikasi bahwa CloudWatch agen sedang berjalan . Jika Anda sudah menjalankan CloudWatch agen di EC2 host tempat beban kerja diterapkan dan mengelola konfigurasi agen, Anda dapat melewati instruksi di bagian ini dan mengikuti mekanisme penerapan yang ada untuk memperbarui konfigurasi. Pastikan untuk menggabungkan CloudWatch agen baru dan konfigurasi Prometheus dengan konfigurasi yang ada, lalu terapkan konfigurasi gabungan. Jika Anda menggunakan Systems Manager untuk menyimpan dan mengelola konfigurasi CloudWatch agen, Anda dapat menggabungkan konfigurasi ke nilai parameter yang ada. Untuk informasi selengkapnya, lihat Mengelola file konfigurasi CloudWatch agen . catatan Menggunakan Systems Manager untuk menerapkan konfigurasi CloudWatch agen berikut akan menggantikan atau menimpa konfigurasi CloudWatch agen yang ada pada instans Anda. EC2 Anda dapat memodifikasi konfigurasi ini agar sesuai dengan lingkungan unik atau kasus penggunaan Anda. Metrik yang ditentukan dalam konfigurasi adalah minimum yang diperlukan untuk dasbor yang disediakan solusinya. Proses penyebaran mencakup langkah-langkah berikut: Langkah 1: Pastikan bahwa EC2 instance target memiliki izin IAM yang diperlukan. Langkah 2: Simpan file konfigurasi agen yang direkomendasikan di Systems Manager Parameter Store. Langkah 3: Instal CloudWatch agen pada satu atau lebih EC2 contoh menggunakan CloudFormation tumpukan. Langkah 4: Verifikasi pengaturan agen dikonfigurasi dengan benar. Langkah 1: Pastikan EC2 instance target memiliki izin IAM yang diperlukan Anda harus memberikan izin kepada Systems Manager untuk menginstal dan mengkonfigurasi CloudWatch agen. Anda harus memberikan izin kepada CloudWatch agen untuk mempublikasikan telemetri dari EC2 instans Anda ke. CloudWatch Anda juga harus memberikan akses EC2 baca kepada CloudWatch agen. EC2 akses baca diperlukan EC2 InstanceId agar ditambahkan sebagai dimensi metrik. Persyaratan tambahan ini didorong oleh prometheus.yaml seperti yang dijelaskan di atas karena digunakan __meta_ec2_instance_id melalui EC2 Service Discovery. Pastikan bahwa peran IAM yang dilampirkan pada instans memiliki kebijakan EC2 ReadOnlyAccess IAM CloudWatchAgentServerPolicy , Amazon SSMManaged InstanceCore , dan Amazon yang dilampirkan. Setelah peran dibuat, lampirkan peran ke EC2 instance Anda. Untuk melampirkan peran ke EC2 instance, ikuti langkah-langkah di Lampirkan peran IAM ke instance . Langkah 2: Simpan file konfigurasi CloudWatch agen yang direkomendasikan di Systems Manager Parameter Store Parameter Store menyederhanakan penginstalan CloudWatch agen pada sebuah EC2 instance dengan menyimpan dan mengelola parameter konfigurasi dengan aman, menghilangkan kebutuhan akan nilai hard-code. Ini memastikan proses penyebaran yang lebih aman dan fleksibel, memungkinkan manajemen terpusat dan pembaruan konfigurasi yang lebih mudah di beberapa instance. Gunakan langkah-langkah berikut untuk menyimpan file konfigurasi CloudWatch agen yang direkomendasikan sebagai parameter di Parameter Store. Untuk membuat file konfigurasi CloudWatch agen sebagai parameter Buka AWS Systems Manager konsol di https://console.aws.amazon.com/systems-manager/ . Verifikasi bahwa Wilayah yang dipilih di konsol adalah Wilayah tempat NGINX berjalan. Dari panel navigasi, pilih Manajemen Aplikasi , Parameter Store Ikuti langkah-langkah ini untuk membuat parameter baru untuk konfigurasi. Pilih Buat parameter . Di kotak Nama , masukkan nama yang akan Anda gunakan untuk mereferensikan file konfigurasi CloudWatch agen di langkah selanjutnya. Misalnya, AmazonCloudWatch-NGINX-CloudWatchAgent-Configuration . (Opsional) Dalam Deskripsi kotak, ketikkan deskripsi untuk parameter. Untuk tingkat Parameter , pilih Standar . Untuk Type , pilih String . Untuk tipe Data , pilih teks . Di kotak Nilai , tempel blok JSON yang sesuai yang terdaftar di Konfigurasi agen untuk host NGINX . Pastikan untuk menyesuaikan sesuai kebutuhan. Misalnya, yang relevan log_group_name . Pilih Buat parameter . Untuk membuat file konfigurasi Prometheus sebagai parameter Buka AWS Systems Manager konsol di https://console.aws.amazon.com/systems-manager/ . Dari panel navigasi, pilih Manajemen Aplikasi , Parameter Store Ikuti langkah-langkah ini untuk membuat parameter baru untuk konfigurasi. Pilih Buat parameter . Di kotak Nama , masukkan nama yang akan Anda gunakan untuk mereferensikan file konfigurasi di langkah selanjutnya. Misalnya, AmazonCloudWatch-NGINX-Prometheus-Configuration . (Opsional) Dalam Deskripsi kotak, ketikkan deskripsi untuk parameter. Untuk tingkat Parameter , pilih Standar . Untuk Type , pilih String . Untuk tipe Data , pilih teks . Di kotak Nilai , tempel blok YAMM yang sesuai yang terdaftar di. Konfigurasi agen untuk host NGINX Pastikan untuk menyesuaikan sesuai kebutuhan. Misalnya, nomor port yang relevan sesuai targets . Pilih Buat parameter . Langkah 3: Instal CloudWatch agen dan terapkan konfigurasi menggunakan CloudFormation templat Anda dapat menggunakan AWS CloudFormation untuk menginstal agen dan mengonfigurasinya untuk menggunakan konfigurasi CloudWatch agen yang Anda buat di langkah sebelumnya. Untuk menginstal dan mengkonfigurasi CloudWatch agen untuk solusi ini Buka wizard CloudFormation Quick create stack menggunakan link ini: https://console.aws.amazon.com/cloudformation/home? #/ stacks/quickcreate?templateURL=https://aws-observability-solutions-prod-us-east-1.s3.us-east-1.amazonaws.com/CloudWatchAgent/CFN/v1.0.0/cw - agent-installation-template-with -prometheus-config-1.0.0.json . Verifikasi bahwa Wilayah yang dipilih di konsol adalah Wilayah tempat beban kerja NGINX berjalan. Untuk nama Stack , masukkan nama untuk mengidentifikasi tumpukan ini, seperti CWAgentInstallationStack . Di bagian Parameter , tentukan yang berikut ini: Untuk CloudWatchAgentConfigSSM , masukkan nama AWS Systems Manager parameter untuk konfigurasi agen yang Anda buat sebelumnya, seperti AmazonCloudWatch-NGINX-CloudWatchAgent-Configuration . Untuk PrometheusConfigSSM , masukkan nama AWS Systems Manager parameter untuk konfigurasi agen yang Anda buat sebelumnya, seperti AmazonCloudWatch-NGINX-Prometheus-Configuration . Untuk memilih instance target, Anda memiliki dua opsi. Untuk InstanceIds , tentukan daftar instance IDs daftar instance yang dibatasi koma IDs di mana Anda ingin menginstal CloudWatch agen dengan konfigurasi ini. Anda dapat membuat daftar satu contoh atau beberapa contoh. Jika Anda menerapkan pada skala besar, Anda dapat menentukan TagKey dan yang sesuai TagValue untuk menargetkan semua EC2 instance dengan tag dan nilai ini. Jika Anda menentukan a TagKey , Anda harus menentukan yang sesuai TagValue . (Untuk grup Auto Scaling, tentukan aws:autoscaling:groupName TagKey dan tentukan nama grup Auto Scaling untuk digunakan ke semua TagValue instance dalam grup Auto Scaling.) Tinjau pengaturan, lalu pilih Buat tumpukan . Jika Anda ingin mengedit file templat terlebih dahulu untuk menyesuaikannya, pilih opsi Unggah file templat di bawah Buat Wisaya Tumpukan untuk mengunggah templat yang diedit. Untuk informasi selengkapnya, lihat Membuat tumpukan di CloudFormation konsol . Anda dapat menggunakan tautan berikut untuk mengunduh templat: https://aws-observability-solutions-prod-us-east-1.s3.us-east-1.amazonaws.com/CloudWatchAgent/CFN/v1.0.0/cw- agent-installation-template-with -prometheus-config-1.0.0.json . catatan Setelah langkah ini selesai, parameter Systems Manager ini akan dikaitkan dengan CloudWatch agen yang berjalan dalam instance yang ditargetkan. Ini artinya bahwa: Jika parameter Systems Manager dihapus, agen akan berhenti. Jika parameter Systems Manager diedit, perubahan konfigurasi akan secara otomatis berlaku untuk agen pada frekuensi terjadwal yaitu 30 hari secara default. Jika Anda ingin segera menerapkan perubahan pada parameter Systems Manager ini, Anda harus menjalankan langkah ini lagi. Untuk informasi selengkapnya tentang asosiasi, lihat Bekerja dengan asosiasi di Systems Manager . Langkah 4: Verifikasi pengaturan agen dikonfigurasi dengan benar Anda dapat memverifikasi apakah CloudWatch agen diinstal dengan mengikuti langkah-langkah di Verifikasi bahwa CloudWatch agen sedang berjalan . Jika CloudWatch agen tidak diinstal dan berjalan, pastikan Anda telah mengatur semuanya dengan benar. Pastikan Anda telah melampirkan peran dengan izin yang benar untuk EC2 instance seperti yang dijelaskan dalam Langkah 1: Pastikan EC2 instance target memiliki izin IAM yang diperlukan . Pastikan Anda telah mengkonfigurasi JSON dengan benar untuk parameter Systems Manager. Ikuti langkah-langkah di Memecahkan masalah pemasangan agen dengan CloudWatch CloudFormation . Jika semuanya diatur dengan benar, maka Anda akan melihat metrik NGINX dipublikasikan. CloudWatch Anda dapat memeriksa CloudWatch konsol untuk memverifikasi bahwa mereka sedang dipublikasikan. Untuk memverifikasi bahwa metrik NGINX sedang dipublikasikan ke CloudWatch Buka CloudWatch konsol di https://console.aws.amazon.com/cloudwatch/ . Pilih Metrik , Semua Metrik . Pastikan Anda telah memilih Wilayah tempat Anda menerapkan solusi, dan pilih Ruang nama khusus ,. CWAgent Cari metrik seperti nginx_http_requests_total . Jika Anda melihat hasil untuk metrik ini, maka metrik sedang dipublikasikan ke. CloudWatch Buat dasbor solusi NGINX Dasbor yang disediakan oleh solusi ini menyajikan metrik beban kerja NGINX dengan menggabungkan dan menyajikan metrik di semua instance. Dasbor menunjukkan rincian kontributor teratas (10 teratas per widget metrik) untuk setiap metrik. Ini membantu Anda mengidentifikasi outlier atau instance dengan cepat yang berkontribusi secara signifikan terhadap metrik yang diamati. Untuk membuat dasbor, Anda dapat menggunakan opsi berikut: Gunakan CloudWatch konsol untuk membuat dasbor. Gunakan AWS CloudFormation konsol untuk menyebarkan dasbor. Unduh AWS CloudFormation infrastruktur sebagai kode dan integrasikan sebagai bagian dari otomatisasi integrasi berkelanjutan (CI) Anda. Dengan menggunakan CloudWatch konsol untuk membuat dasbor, Anda dapat melihat pratinjau dasbor sebelum benar-benar membuat dan mengisi daya. catatan Dasbor yang dibuat dengan CloudFormation solusi ini menampilkan metrik dari Wilayah tempat solusi diterapkan. Pastikan untuk membuat CloudFormation tumpukan di Wilayah tempat metrik NGINX Anda diterbitkan. Jika Anda telah menentukan namespace khusus selain CWAgent dalam konfigurasi CloudWatch agen, Anda harus mengubah CloudFormation template untuk dasbor untuk diganti CWAgent dengan namespace khusus yang Anda gunakan. Untuk membuat dasbor melalui CloudWatch Konsol Buka Dasbor Buat CloudWatch Konsol menggunakan tautan ini: https://console.aws.amazon.com/cloudwatch/beranda? #dashboards? DashboardTemplate= 2&referrer=os-catalog NginxOnEc . Verifikasi bahwa Wilayah yang dipilih di konsol adalah Wilayah tempat beban kerja NGINX berjalan. Masukkan nama dasbor, lalu pilih Create Dashboard . Untuk membedakan dasbor ini dengan mudah dari dasbor serupa di Wilayah lain, sebaiknya sertakan nama Wilayah di nama dasbor, seperti. NGINXDashboard-us-east-1 Pratinjau dasbor dan pilih Simpan untuk membuat dasbor. Untuk membuat dasbor melalui CloudFormation Buka wizard CloudFormation Quick create stack menggunakan link ini: https://console.aws.amazon.com/cloudformation/home? #/ stacks/quickcreate?templateURL=https://aws-observability-solutions-prod-us-east-1.s3.us-east-1.amazonaws.com/NGINX_EC2/CloudWatch/CFN/v1.0.0/dashboard -template-1.0.0.json . Verifikasi bahwa Wilayah yang dipilih di konsol adalah Wilayah tempat beban kerja NGINX berjalan. Untuk nama Stack , masukkan nama untuk mengidentifikasi tumpukan ini, seperti NGINXDashboardStack . Di bagian Parameter , tentukan nama dasbor di bawah DashboardName parameter. Untuk membedakan dasbor ini dengan mudah dari dasbor serupa di Wilayah lain, sebaiknya sertakan nama Wilayah di nama dasbor, seperti. NGINXDashboard-us-east-1 Akui kemampuan akses untuk transformasi di bawah Kemampuan dan transformasi. Perhatikan bahwa CloudFormation tidak menambahkan sumber daya IAM apa pun. Tinjau pengaturan, lalu pilih Buat tumpukan . Setelah status tumpukan CREATE_COMPLETE , pilih tab Resources di bawah tumpukan yang dibuat dan kemudian pilih tautan di bawah Physical ID untuk pergi ke dasbor. Anda juga dapat mengakses dasbor di CloudWatch konsol dengan memilih Dasbor di panel navigasi kiri konsol, dan menemukan nama dasbor di bawah Dasbor Kustom . Jika Anda ingin mengedit file templat terlebih dahulu untuk menyesuaikannya, pilih opsi Unggah file templat di bawah Buat Wisaya Tumpukan untuk mengunggah templat yang diedit. Untuk informasi selengkapnya, lihat Membuat tumpukan di CloudFormation konsol . Anda dapat menggunakan tautan berikut untuk mengunduh templat: https://aws-observability-solutions-prod-us-east-1.s3.us-east-1.amazonaws.com/NGINX_EC2/CloudWatch/CFN/v1.0.0/dashboard-template-1.0.0.json . Memulai dengan dasbor NGINX Berikut adalah beberapa tugas yang dapat Anda coba dengan dasbor NGINX baru. Tugas-tugas ini memungkinkan Anda untuk memvalidasi bahwa dasbor berfungsi dengan benar dan memberi Anda pengalaman langsung menggunakannya untuk memantau beban kerja NGINX. Saat Anda mencobanya, Anda akan terbiasa dengan menavigasi dasbor dan menafsirkan metrik yang divisualisasikan. Tinjau metrik koneksi Di bagian Koneksi , Anda dapat menemukan beberapa metrik utama yang memberikan wawasan tentang penanganan koneksi klien server NGINX Anda. Memantau metrik koneksi ini dapat membantu Anda mengidentifikasi potensi kemacetan, masalah koneksi, atau pola koneksi yang tidak terduga. Koneksi klien yang diterima Koneksi klien aktif Koneksi klien yang ditangani Koneksi membaca permintaan Koneksi klien menganggur Koneksi menulis tanggapan Menganalisis volume permintaan HTTP request Metrik di bagian Permintaan HTTP menunjukkan jumlah total permintaan HTTP yang ditangani oleh server NGINX. Melacak metrik ini dari waktu ke waktu dapat membantu Anda memahami beban lalu lintas keseluruhan pada infrastruktur NGINX Anda dan merencanakan alokasi dan penskalaan sumber daya yang sesuai. Javascript dinonaktifkan atau tidak tersedia di browser Anda. Untuk menggunakan Dokumentasi AWS, Javascript harus diaktifkan. Lihat halaman Bantuan browser Anda untuk petunjuk. Konvensi Dokumen Beban kerja JVM pada EC2 Beban kerja GPU NVIDIA aktif EC2 Apakah halaman ini membantu Anda? - Ya Terima kasih telah memberitahukan bahwa hasil pekerjaan kami sudah baik. Jika Anda memiliki waktu luang, beri tahu kami aspek apa saja yang sudah bagus, agar kami dapat menerapkannya secara lebih luas. Apakah halaman ini membantu Anda? - Tidak Terima kasih telah memberi tahu kami bahwa halaman ini perlu ditingkatkan. Maaf karena telah mengecewakan Anda. Jika Anda memiliki waktu luang, beri tahu kami bagaimana dokumentasi ini dapat ditingkatkan. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/what-is-network-monitor.html | Using Network Synthetic Monitor - Amazon CloudWatch Using Network Synthetic Monitor - Amazon CloudWatch Documentation Amazon CloudWatch User Guide Key features Terminology and components Requirements and limitations Using Network Synthetic Monitor Network Synthetic Monitor provides visibility into the performance of the network connecting your AWS hosted applications to your on-premises destinations, and allows you to identify the source of any network performance degradation within minutes. Network Synthetic Monitor is fully managed by AWS, and doesn't require separate agents on monitored resources. Use Network Synthetic Monitor to visualize packet loss and latency of your hybrid network connections, and set alerts and thresholds. Then, based on this information, you can take action to improve your end users’ experience. Network Synthetic Monitor is intended for network operators and application developers who want real-time insights into network performance. Network Synthetic Monitor key features Use Network Synthetic Monitor to benchmark your changing hybrid network environment with continuous real-time packet loss and latency metrics. When you connect by using AWS Direct Connect, Network Synthetic Monitor can help you to rapidly diagnose network degradation within the AWS network with the network health indicator (NHI), which Network Synthetic Monitor writes to your Amazon CloudWatch account. The NHI metric is a binary value, based on a probabilistic score about whether network degradation is within AWS. Network Synthetic Monitor provides a fully-managed agent approach to monitoring, so you don’t need to install agents either on VPCs or on-premises. To get started, you just need to specify a VPC subnet and an on-premises IP address. You can establish a private connection between your VPC and Network Synthetic Monitor resources by using AWS PrivateLink. For more information, see Using CloudWatch, CloudWatch Synthetics, and CloudWatch Network Monitoring with interface VPC endpoints . Network Synthetic Monitor publishes metrics to CloudWatch Metrics. You can create dashboards to view your metrics, and also create actionable thresholds and alarms on the metrics that are specific to your application. For more information, see How Network Synthetic Monitor works . Network Synthetic Monitor terminology and components Probes — A probe is the traffic that's sent from an AWS-hosted resource to an on-premises destination IP address. Network Synthetic Monitor metrics measured by the probe are written into your CloudWatch account for every probe that's configured in a monitor. Monitor — A monitor displays network performance and other health information for traffic that you have created Network Synthetic Monitor probes for. You add probes as part of creating a monitor, and then you can view network performance metrics information using the monitor. When you create a monitor for an application, you add an AWS hosted resource as the network source. Network Synthetic Monitor then creates a list of all possible probes between the AWS hosted resource and your destination IP addresses. You select the destinations that you want to monitor traffic for. AWS network source — An AWS network source is a monitor probe's originating AWS source, which is a subnet in one of your VPCs. Destination — A destination is the target in your on-premises network for the AWS network source. A destination is a combination of your on-premises IP addresses, network protocols, ports, and network packet size. IPv4 and IPv6 addresses are both supported. Network Synthetic Monitor requirements and limitations The following summarizes requirements and limitations for Network Synthetic Monitor. For specific quotas (or limits), see Network Synthetic Monitor . Monitor subnets must be owned by the same account as the monitor. Network Synthetic Monitor doesn't provide automatic network failover in the event of an AWS network issue. There's a charge for each probe that you create. For pricing details, see Pricing for Network Synthetic Monitor . Javascript is disabled or is unavailable in your browser. To use the Amazon Web Services Documentation, Javascript must be enabled. Please refer to your browser's Help pages for instructions. Document Conventions Service-linked role How Network Synthetic Monitor works Did this page help you? - Yes Thanks for letting us know we're doing a good job! If you've got a moment, please tell us what we did right so we can do more of it. Did this page help you? - No Thanks for letting us know this page needs work. We're sorry we let you down. If you've got a moment, please tell us how we can make the documentation better. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/prescriptive-guidance/latest/implementing-logging-monitoring-cloudwatch/create-store-cloudwatch-configurations.html | Managing CloudWatch agent configuration files - AWS Prescriptive Guidance Managing CloudWatch agent configuration files - AWS Prescriptive Guidance Documentation AWS Prescriptive Guidance Designing and implementing logging and monitoring with Amazon CloudWatch Managing CloudWatch configurations Example: Storing CloudWatch configuration files in an S3 bucket Managing CloudWatch agent configuration files We recommend that you create a standard Amazon CloudWatch agent configuration that includes the system logs and metrics that you want to capture across all your Amazon Elastic Compute Cloud (Amazon EC2) instances and on-premises servers. You can use the CloudWatch agent configuration file wizard to help you create the configuration file. You can run the configuration wizard multiple times to generate unique configurations for different systems and environments. You can also modify the configuration file or create variations by using the configuration file schema . The CloudWatch agent configuration file can be stored in AWS Systems Manager Parameter Store parameters. You can create separate Parameter Store parameters if you have multiple CloudWatch agent configuration files . If you are using multiple AWS accounts or AWS Regions, you must manage and update the Parameter Store parameters in each account and Region. Alternatively, you can centrally manage your CloudWatch configurations as files in Amazon S3 or a version-control tool of your choice. The amazon-cloudwatch-agent-ctl script included with the CloudWatch agent allows you to specify a configuration file, Parameter Store parameter, or the agent's default configuration. The default configuration aligns to the basic, predefined metric set and configures the agent to report memory and disk space metrics to CloudWatch. However, it doesn't include any log file configurations. The default configuration is also applied if you use Systems Manager Quick Setup for the CloudWatch agent. Because the default configuration doesn't include logging and isn't customized for your requirements, we recommend that you create and apply your own CloudWatch configurations, customized to your requirements. Managing CloudWatch configurations By default, CloudWatch configurations can be stored and applied as Parameter Store parameters or as CloudWatch configuration files. The best choice will depend on your requirements. In this section, we discuss the pros and cons for these two options. A representative solution is also detailed for managing CloudWatch configuration files for multiple AWS accounts and AWS Regions. Systems Manager Parameter Store parameters Using Parameter Store parameters to manage CloudWatch configurations works well if you have a single, standard CloudWatch agent configuration file that you want to apply and manage in a small set of AWS accounts and Regions. When you store your CloudWatch configurations as Parameter Store parameters, you can use the CloudWatch agent configuration tool ( amazon-cloudwatch-agent-ctl on Linux) to read and apply the configuration from Parameter Store without requiring you to copy the configuration file to your instance. You can use the AmazonCloudWatch-ManageAgent Systems Manager Command document to update the CloudWatch configuration on multiple EC2 instances in a single run. Because Parameter Store parameters are regional, you must update and maintain your CloudWatch Parameter Store parameters in each AWS Region and AWS account. If you have multiple CloudWatch configurations that you want to apply to each instance, you must customize the AmazonCloudWatch-ManageAgent Command document to include these parameters. CloudWatch configuration files Managing your CloudWatch configurations as files might work well if you have many AWS accounts and Regions and you are managing multiple CloudWatch configuration files. Using this approach, you can browse, organize, and manage them in a folder structure. You can apply security rules to individual folders or files to limit and grant access such as update and read permissions. You can share and transfer them outside of AWS for collaboration. You can version control the files to track and manage changes. You can apply CloudWatch configurations collectively by copying the configuration files to the CloudWatch agent configuration directory without applying each configuration file individually. For Linux, the CloudWatch configuration directory is found at /opt/aws/amazon-cloudwatch-agent/etc/amazon-cloudwatch-agent.d . For Windows, the configuration directory is found at C:\ProgramData\Amazon\AmazonCloudWatchAgent\Configs . When you start the CloudWatch agent, the agent automatically appends each file found in these directories to create a CloudWatch composite configuration file. The configuration files should be stored in a central location (for example, an S3 bucket) that can be accessed by your required accounts and Regions. An example solution using this approach is provided. Organizing CloudWatch configurations Regardless of the approach used to manage your CloudWatch configurations, organize your CloudWatch configurations. You can organize your configurations into file or Parameter Store paths using an approach such as the following. /config/standard/windows/ec2 Store standard Windows-specific CloudWatch configuration files for Amazon EC2. You can further categorize your standard operating system (OS) configurations for different Windows versions, EC2 instance types, and environments under this folder. /config/standard/windows/onpremises Store standard Windows-specific CloudWatch configuration files for on-premises servers. You also further categorize your standard OS configurations for different Windows versions, server types, and environments under this folder. /config/standard/linux/ec2 Store your standard Linux-specific CloudWatch configuration files for Amazon EC2. You can further categorize your standard OS configuration for different Linux distributions, EC2 instance types, and environments under this folder. /config/standard/linux/onpremises Store your standard Linux-specific CloudWatch configuration files for on-premises servers. You can further categorize your standard OS configuration for different Linux distributions, server types, and environments under this folder. /config/ecs Store CloudWatch configuration files that are specific to Amazon Elastic Container Service (Amazon ECS) if you use Amazon ECS container instances. These configurations can be appended to the standard Amazon EC2 configurations for Amazon ECS specific systems-level logging and monitoring. /config/<application_name> Store your application-specific CloudWatch configuration files. You can further categorize your applications with additional folders and prefixes for environments and versions. Example: Storing CloudWatch configuration files in an S3 bucket This section provides an example using Amazon S3 to store CloudWatch configuration files and a custom Systems Manager runbook to retrieve and apply the CloudWatch configuration files. This approach can address some of the challenges of using Systems Manager Parameter Store parameters for CloudWatch configuration at scale: If you use multiple Regions, you must synchronize CloudWatch configuration updates in each Region's Parameter Store. Parameter Store is a Regional service and the same parameter must be updated in each Region that uses the CloudWatch agent. If you have multiple CloudWatch configurations, you must initiate the retrieval and application of each Parameter Store configuration. You must individually retrieve each CloudWatch configuration from the Parameter Store and also update the retrieval method whenever you add a new configuration. In contrast, CloudWatch provides a configuration directory for storing configuration files and applies each configuration in the directory, without requiring them to be individually specified. If you use multiple accounts, you must ensure that each new account has the required CloudWatch configurations in its Parameter Store. You also need to make sure that any configuration changes are applied to these accounts and their Regions in the future. You can store CloudWatch configurations in an S3 bucket that is accessible from all your accounts and Regions. You can then copy these configurations from the S3 bucket to the CloudWatch configuration directory by using Systems Manager Automation runbooks and Systems Manager State Manager. You can use the cloudwatch-config-s3-bucket.yaml AWS CloudFormation template to create an S3 bucket that is accessible from multiple accounts within an organization in AWS Organizations. The template includes an OrganizationID parameter that grants read access to all accounts within your organization . The augmented sample Systems Manager runbook, provided in the Set up State Manager and Distributor for CloudWatch agent deployment and configuration section of this guide, is configured to retrieve files using the S3 bucket created by the cloudwatch-config-s3-bucket.yaml AWS CloudFormation template. Alternatively, you can use a version control system (for example, GitHub) to store your configuration files. If you want to automatically retrieve configuration files stored in a version control system, you have to manage or centralize the credential storage and update the Systems Manager Automation runbook that is used to retrieve the credentials across your accounts and AWS Regions. Javascript is disabled or is unavailable in your browser. To use the Amazon Web Services Documentation, Javascript must be enabled. Please refer to your browser's Help pages for instructions. Document Conventions Using CloudWatch in centralized or distributed accounts Configuring the CloudWatch agent for EC2 instances and on-premises servers Did this page help you? - Yes Thanks for letting us know we're doing a good job! If you've got a moment, please tell us what we did right so we can do more of it. Did this page help you? - No Thanks for letting us know this page needs work. We're sorry we let you down. If you've got a moment, please tell us how we can make the documentation better. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/es_es/AmazonCloudWatch/latest/monitoring/what-is-network-monitor.html | Uso de Network Synthetic Monitor - Amazon CloudWatch Uso de Network Synthetic Monitor - Amazon CloudWatch Documentación Amazon CloudWatch Guía del usuario Características principales Terminología y componentes Requisitos y limitaciones Uso de Network Synthetic Monitor Network Synthetic Monitor ofrece visibilidad del rendimiento de la red que conecta las aplicaciones alojadas en AWS con los destinos en las instalaciones. También permite identificar el origen de cualquier degradación del rendimiento de la red en cuestión de minutos. Network Synthetic Monitor está totalmente administrado por AWS y no necesita ningún agente independiente en los recursos supervisados. Utilice Network Synthetic Monitor para visualizar la pérdida de paquetes y la latencia de sus conexiones de red híbrida, y así establecer alertas y umbrales. Luego, en función de esta información, puede tomar medidas para mejorar la experiencia de sus usuarios finales. Network Synthetic Monitor está pensado para operadores de redes y desarrolladores de aplicaciones que desean obtener información en tiempo real sobre el rendimiento de la red. Características principales de Network Synthetic Monitor Utilice Network Synthetic Monitor para comparar el cambiante entorno de red híbrida con métricas continuas de latencia y pérdida de paquetes en tiempo real. Cuando se conecta mediante AWS Direct Connect, Network Synthetic Monitor puede ayudar a diagnosticar rápidamente la degradación de red dentro de la red de AWS con el indicador de estado de la red (NHI), que Network Synthetic Monitor escribe en la cuenta de Amazon CloudWatch. La métrica NHI es un valor binario basado en una puntuación probabilística sobre si la degradación de la red ocurre dentro de AWS. Network Synthetic Monitor ofrece un enfoque de agentes totalmente administrado para la supervisión, por lo que no es necesario instalar los agentes ni en las VPC ni en las instalaciones. Para comenzar, solo tiene que especificar una subred de VPC y una dirección IP en las instalaciones. Puede establecer una conexión privada entre la VPC y los recursos de Network Synthetic Monitor mediante AWS PrivateLink. Para obtener más información, consulte Uso de CloudWatch, CloudWatch Synthetics y CloudWatch Network Monitoring con los puntos de conexión de VPC de tipo interfaz . Network Synthetic Monitor publica las métricas en CloudWatch Metrics. Puede crear paneles para ver las métricas y también para crear umbrales y alarmas procesables en las métricas específicas de su aplicación. Para obtener más información, consulte Funcionamiento de Network Synthetic Monitor . Terminología y componentes de Network Synthetic Monitor Sondas : una sonda es el tráfico que se envía desde un recurso alojado en AWS a una dirección IP de destino en las instalaciones. Las métricas de Network Synthetic Monitor medidas por la sonda se escriben en la cuenta de CloudWatch para cada sonda que se configura en un monitor. Monitor : el monitor muestra el rendimiento de la red y otros tipos de información sobre el estado del tráfico para el que ha creado sondas de Network Synthetic Monitor. Las sondas se agregan como parte de la creación de un monitor y luego permiten ver la información sobre las métricas de rendimiento de la red mediante el uso del monitor. Al crear un monitor para una aplicación, se agrega un recurso alojado en AWS como origen de red. A continuación, Network Synthetic Monitor crea una lista de todos los sondeos posibles entre los recursos alojados en AWS y las direcciones IP de destino. Se deben seleccionar los destinos para los que desea supervisar el tráfico. Origen de red de AWS : un origen de red de AWS es el origen de AWS de una sonda de monitor, la cual es una subred en una de sus VPC. Destino : un destino es el objetivo en su red local para el origen de red de AWS. Un destino es una combinación de sus direcciones IP en las instalaciones, los protocolos de red, los puertos y el tamaño de los paquetes de red. Tanto las direcciones IPv4 como las IPv6 son compatibles. Requisitos de Network Synthetic Monitor y limitaciones A continuación se resumen los requisitos y las limitaciones de Network Synthetic Monitor. Para conocer las cuotas (o límites) específicos, consulte Network Synthetic Monitor . Las subredes del monitor deben pertenecer a la misma cuenta que el monitor. Network Synthetic Monitor no proporciona una conmutación por error automática de red en caso de que se produzca un problema con la red AWS. Se aplica un cargo por cada sonda que cree. Para obtener más información sobre los precios, consulte Precios de Network Synthetic Monitor . JavaScript está desactivado o no está disponible en su navegador. Para utilizar la documentación de AWS, debe estar habilitado JavaScript. Para obtener más información, consulte las páginas de ayuda de su navegador. Convenciones del documento Rol vinculado a servicios Funcionamiento de Network Synthetic Monitor ¿Le ha servido de ayuda esta página? - Sí Gracias por hacernos saber que estamos haciendo un buen trabajo. Si tiene un momento, díganos qué es lo que le ha gustado para que podamos seguir trabajando en esa línea. ¿Le ha servido de ayuda esta página? - No Gracias por informarnos de que debemos trabajar en esta página. Lamentamos haberle defraudado. Si tiene un momento, díganos cómo podemos mejorar la documentación. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/pt_br/AmazonCloudWatch/latest/monitoring/nw-monitor-how-it-works.html | Como o Network Synthetic Monitor funciona - Amazon CloudWatch Como o Network Synthetic Monitor funciona - Amazon CloudWatch Documentação Amazon CloudWatch Guia do usuário Disponibilidade e performance Protocolos de comunicação Indicador de integridade da rede Tráfego IPv4 e IPv6 Como o Network Synthetic Monitor funciona O Network Synthetic Monitor é totalmente gerenciado pela AWS e não exige agentes separados nos recursos monitorados. Em vez disso, você especifica as sondas fornecendo uma sub-rede da VPC e endereços IP on-premises. Quando você cria um monitor no Network Synthetic Monitor para recursos hospedados na AWS, a AWS cria e gerencia toda a infraestrutura em segundo plano necessária para executar cálculos de tempo de ida e volta e de perda de pacotes. Como a AWS gerencia as configurações necessárias, você pode escalar seu monitoramento rapidamente sem precisar instalar ou desinstalar qualquer agente na sua infraestrutura da AWS. Quando as sondas são criadas, interfaces de rede elásticas (ENIs) personalizadas são criadas e anexadas às instâncias de sonda e às sub-redes do cliente. Se o Network Synthetic Monitor substituir uma instância de sonda (p. ex., se ela ficar não íntegra), o Network Synthetic Monitor desconectará as ENIs e as reconectará à sonda substituta. Isso significa que os endereços IP das ENIs não são alterados após a criação, a menos que você exclua uma sonda e crie uma nova para a mesma origem e destino. O Network Synthetic Monitor se concentra no monitoramento das rotas percorridas pelos fluxos originários dos recursos hospedados na AWS, em vez de monitorar amplamente todos os fluxos da Região da AWS. Se as workloads estiverem espalhadas por várias zonas de disponibilidade, o Network Synthetic Monitor poderá monitorar as rotas de cada uma das sub-redes privadas. O Network Synthetic Monitor publica métricas de tempo de ida e volta e de perda de pacotes na conta do Amazon CloudWatch com base no intervalo de agregação que você definiu ao criar um monitor. Você também pode usar o CloudWatch para definir limites individuais de latência e perda de pacotes para cada monitor. Por exemplo, você poderá criar um alarme para uma workload sensível a perda de pacotes para avisar quando sua média de perda de pacotes for maior que o limite estático de 0,1%. Você também pode usar a detecção de anomalias do CloudWatch para alertar sobre perda de pacotes ou métricas de latência fora dos intervalos desejados. Medições de disponibilidade e performance O Network Synthetic Monitor envia sondas ativas periódicas do recurso da AWS para os destinos on-premises. Ao criar um monitor, especifique o seguinte: Intervalo de agregação: o tempo, em segundos, em que o CloudWatch recebe os resultados calculados. Isso será a cada 30 ou 60 segundos. O período de agregação escolhido para o monitor se aplica a todas as sondas desse monitor. Fontes de sondas (recursos da AWS): uma fonte para uma sonda é uma VPC e sub-redes associadas, ou apenas uma sub-rede da VPC, nas regiões em que sua rede opera. Destinos da sonda (recursos do cliente): o destino de uma sonda é a combinação dos endereços IP on-premises, dos protocolos de rede, das portas e do tamanho do pacote da rede. Protocolo de sonda: um dos protocolos compatíveis, ICMP ou TCP. Para obter mais informações, consulte Protocolos de comunicação compatíveis . Porta (para TCP): a porta que a rede usa para se conectar. Tamanho do pacote (para TCP): o tamanho, em bytes, de cada pacote transmitido entre o recurso hospedado na AWS e o destino em uma única sonda. Você pode especificar um tamanho de pacote diferente para cada sonda em um monitor. Um monitor publica as seguintes métricas: Tempo de ida e volta: essa métrica, calculada em microssegundos, é uma medição de performance. Ela registra o tempo necessário para que a sonda seja transmitida para o endereço IP de destino e para que a resposta associada seja recebida. O tempo de ida e volta é o tempo médio observado durante o intervalo de agregação. Perda de pacotes: esta métrica calcula o porcentual do total de pacotes enviados e registra o número de transmissões que não receberam uma resposta associada. Nenhuma resposta significa que os pacotes foram perdidos ao longo do caminho da rede. Protocolos de comunicação compatíveis O Network Synthetic Monitor é compatível com dois protocolos para sondas: ICMP e TCP. As sondas baseadas em ICMP transportam solicitações de eco ICMP dos recursos hospedados na AWS para o endereço de destino e esperam uma resposta de eco ICMP do endereço de destino. O Network Synthetic Monitor usa as informações na solicitação de eco ICMP e as mensagens de resposta para calcular o tempo de ida e volta e as métricas de perda de pacotes. As sondas baseadas em TCP transportam pacotes TCP SYN dos recursos hospedados na AWS para a porta e o endereço de destino e esperam um pacote TCP SYN+ACK na resposta. O Network Synthetic Monitor usa as informações nas mensagens de TCP SYN e TCP SYN+ACK para calcular o tempo de ida e volta e as métricas de perda de pacotes. O Network Synthetic Monitor alterna periodicamente as portas TCP de origem para aumentar a cobertura da rede, o que pode aumentar a probabilidade de detecção de perda de pacotes. Indicador de integridade da rede da AWS O Network Synthetic Monitor publica uma métrica do indicador de integridade da rede (NHI), que fornece informações sobre os problemas com a rede da AWS para caminhos que incluem destinos conectados por meio do Direct Connect. O valor binário do NHI é baseado em uma análise estatística da integridade do caminho de rede controlado pela AWS do recurso hospedado na AWS, que é onde o monitor está implantado, até o local do Direct Connect. O Network Synthetic Monitor usa detecção de anomalias para calcular quedas de disponibilidade ou degradação de performance ao longo dos caminhos da rede. O NHI não é preciso para anexos do Direct Connect que usam roteamento intermediário, como conexões criadas usando o Cloud WAN ou que usam AWS Transit Gateway. Quando você tem uma rede híbrida que inclui AWS Transit Gateway ou outros segmentos de roteamento intermediário, não use o valor do NHI como uma indicação de problema de performance. nota Toda vez que você cria um novo monitor, adiciona uma sonda ou reativa uma sonda, o NHI desse monitor é adiado em algumas horas para permitir que a AWS colete dados para realizar a detecção de anomalias. Para fornecer o valor do NHI, o Network Synthetic Monitor aplica correlação estatística a conjuntos de dados de exemplo da AWS, bem como às métricas de perda de pacotes e de latência de ida e volta para tráfego, simulando o caminho de rede. O NHI pode ser um de dois valores: 1 ou 0. Um valor de 1 indica que o Network Synthetic Monitor observou uma degradação da rede no caminho de rede controlado pela AWS. Um valor de 0 indica que o Network Synthetic Monitor não observou qualquer degradação da rede da AWS ao longo do caminho. Usar o valor do NHI permite que você tenha ciência das causas dos problemas de rede mais rapidamente. Por exemplo, você pode definir alertas na métrica do NHI para receber notificações sobre problemas persistentes com a rede da AWS ao longo dos seus caminhos de rede. Suporte para endereços IPv4 e IPv6 O Network Synthetic Monitor fornece métricas de disponibilidade e performance em redes IPv4 ou IPv6, e pode monitorar endereços IPv4 ou IPv6 de VPCs de pilha dupla. O Network Synthetic Monitor não permite que destinos IPv4 e IPv6 sejam configurados no mesmo monitor, mas você pode criar monitores separados para destinos somente IPv4 e somente IPv6. O Javascript está desativado ou não está disponível no seu navegador. Para usar a documentação da AWS, o Javascript deve estar ativado. Consulte as páginas de Ajuda do navegador para obter instruções. Convenções do documento Usar o Network Synthetic Monitor Compatível com Regiões da AWS Essa página foi útil? - Sim Obrigado por nos informar que estamos fazendo um bom trabalho! Se tiver tempo, conte-nos sobre o que você gostou para que possamos melhorar ainda mais. Essa página foi útil? - Não Obrigado por nos informar que precisamos melhorar a página. Lamentamos ter decepcionado você. Se tiver tempo, conte-nos como podemos melhorar a documentação. | 2026-01-13T09:29:26 |
https://www.infoworld.com/events/ | Events | InfoWorld Topics Latest Newsletters Resources Buyer’s Guides About About Us Advertise Contact Us Editorial Ethics Policy Foundry Careers Newsletters Contribute to InfoWorld Reprints Policies Terms of Service Privacy Policy Cookie Policy Copyright Notice Member Preferences About AdChoices Your California Privacy Rights Our Network CIO Computerworld CSO Network World More News Features Blogs BrandPosts Events Videos Enterprise Buyer’s Guides Close Analytics Artificial Intelligence Generative AI Careers Cloud Computing Data Management Databases Emerging Technology Technology Industry Security Software Development Microsoft .NET Development Tools Devops Open Source Programming Languages Java JavaScript Python IT Leadership Enterprise Buyer’s Guides Back Close Back Close Popular Topics Artificial Intelligence Cloud Computing Data Management Software Development Search Topics Latest Newsletters Resources Buyer’s Guides About Policies Our Network More Back Topics Analytics Artificial Intelligence Generative AI Careers Cloud Computing Data Management Databases Emerging Technology Technology Industry Security Software Development Microsoft .NET Development Tools Devops Open Source Programming Languages Java JavaScript Python IT Leadership Enterprise Buyer’s Guides Back About About Us Advertise Contact Us Editorial Ethics Policy Foundry Careers Newsletters Contribute to InfoWorld Reprints Back Policies Terms of Service Privacy Policy Cookie Policy Copyright Notice Member Preferences About AdChoices Your California Privacy Rights Back Our Network CIO Computerworld CSO Network World Back More News Features Blogs BrandPosts Events Videos Enterprise Buyer’s Guides Home Events Events Featured awards Next CSO Awards UK Recognising the rising stars of the UK cybersecurity sector. Nov 28, 2024 18:30-21:30 GMT Andaz London Liverpool Street CSO and CISO awards CSO 30 Awards UK Nov 28, 2024 18:30-21:30 GMT Andaz London Liverpool Street CSO and CISO conference The Official CSO Security Summit UK Nov 28, 2024 9:30 am - 17:30 GMT Andaz London Liverpool Street CSO and CISO conference DevOps Summit UK Join IDC and Industry Experts to Find out What Success Looks like in a Decade Defined by “Value” and Powered by AI. Oct 1, 2024 9:00 AM - 17:30 PM GMT Andaz London Liverpool Street CIO awards CIO 100 Awards UK The CIO Awards UK recognises the best technology leaders in the UK. Sep 19, 2024 County Hall, London CIO conference The Official CIO Summit UK The Official CIO Summit UK presents the best opportunity to hear how your peers are tackling the biggest challenges in the UK IT industry, providing you with new, proven ideas and strategies that can benefit your business and career. Sep 19, 2024 9:00 AM - 17:30 PM GMT County Hall, London CIO Video on demand video How to generate C-like programs with Python You might be familiar with how Python and C can work together, by way of projects like Cython. The new PythoC project has a unique twist on working with both languages: it lets you write type-decorated Python that can generate entire standalone C programs, not just importable Python libraries written in C. This video shows a few basic PythoC functions, from generating a whole program to using some of PythoC's typing features to provide better memory management than C alone could. Dec 16, 2025 5 mins Python Zed Editor Review: The Rust-Powered IDE That Might Replace VS Code Dec 3, 2025 5 mins Python Python vs. Kotlin Nov 13, 2025 5 mins Python Hands-on with the new sampling profiler in Python 3.15 Nov 6, 2025 6 mins Python See all videos Show me more Latest Articles Videos analysis Which development platforms and tools should you learn now? By Isaac Sacolick Jan 13, 2026 8 mins Development Tools Devops Generative AI analysis Why hybrid cloud is the future of enterprise platforms By David Linthicum Jan 13, 2026 4 mins Artificial Intelligence Cloud Architecture Hybrid Cloud news Oracle unveils Java development plans for 2026 By Paul Krill Jan 12, 2026 3 mins Java Programming Languages Software Development video How to make local packages universal across Python venvs Nov 4, 2025 4 mins Python video X-ray vision for your async activity in Python 3.14 Oct 21, 2025 4 mins Python video Why it's so hard to redistribute standalone Python apps Oct 17, 2025 5 mins Python About About Us Advertise Contact Us Editorial Ethics Policy Foundry Careers Reprints Newsletters BrandPosts Policies Terms of Service Privacy Policy Cookie Policy Copyright Notice Member Preferences About AdChoices Your California Privacy Rights Privacy Settings Our Network CIO Computerworld CSO Network World Facebook X YouTube Google News LinkedIn © 2026 FoundryCo, Inc. All Rights Reserved. | 2026-01-13T09:29:26 |
https://vi-vn.facebook.com/login/?next=https%3A%2F%2Fl.facebook.com%2Fl.php%3Fu%3Dhttps%253A%252F%252Fwww.instagram.com%252F%26amp%253Bh%3DAT2FpiAS5Z4gP0BLmRzfuo4BALg9YPzbZ9ghFRCmHt3Onrjp0xwiTLO3A5FDz8P8Zb_hiTX9tVT5JFDef74sOVyazw7vZoOm5R2kajYZw6QBHjevx_fbeeJTebCYVomRxu2_hRi-_Wu4ggdu | Facebook Facebook Email hoặc điện thoại Mật khẩu Bạn quên tài khoản ư? Tạo tài khoản mới Bạn tạm thời bị chặn Bạn tạm thời bị chặn Có vẻ như bạn đang dùng nhầm tính năng này do sử dụng quá nhanh. Bạn tạm thời đã bị chặn sử dụng nó. Back Tiếng Việt 한국어 English (US) Bahasa Indonesia ภาษาไทย Español 中文(简体) 日本語 Português (Brasil) Français (France) Deutsch Đăng ký Đăng nhập Messenger Facebook Lite Video Meta Pay Cửa hàng trên Meta Meta Quest Ray-Ban Meta Meta AI Nội dung khác do Meta AI tạo Instagram Threads Trung tâm thông tin bỏ phiếu Chính sách quyền riêng tư Trung tâm quyền riêng tư Giới thiệu Tạo quảng cáo Tạo Trang Nhà phát triển Tuyển dụng Cookie Lựa chọn quảng cáo Điều khoản Trợ giúp Tải thông tin liên hệ lên & đối tượng không phải người dùng Cài đặt Nhật ký hoạt động Meta © 2026 | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/pt_br/AmazonCloudWatch/latest/monitoring/what-is-network-monitor.html#nw-monitor-features | Usar o Network Synthetic Monitor - Amazon CloudWatch Usar o Network Synthetic Monitor - Amazon CloudWatch Documentação Amazon CloudWatch Guia do usuário Atributos principais Terminologia e componentes Requisitos e limitações Usar o Network Synthetic Monitor O Network Synthetic Monitor fornece uma visibilidade da performance da rede que conecta as aplicações hospedadas na AWS aos seus destinos on-premises, e permite que você identifique a origem de qualquer degradação da performance da rede em questão de minutos. O Network Synthetic Monitor é totalmente gerenciado pela AWS e não exige agentes separados nos recursos monitorados. Use o Network Synthetic Monitor para visualizar a perda de pacotes e a latência das conexões de rede híbrida e definir alertas e limites. Em seguida, você pode adotar as medidas cabíveis para melhorar a experiência dos seus usuários finais com base nessas informações. O Network Synthetic Monitor é destinado a operadores de rede e desenvolvedores de aplicações que desejam insights em tempo real sobre a performance da rede. Principais recursos do Network Synthetic Monitor Use o Network Synthetic Monitor para comparar um ambiente de rede híbrido em constante mudança com métricas contínuas de latência e perda de pacotes em tempo real. Quando você se conecta usando o AWS Direct Connect, o Network Synthetic Monitor pode ajudar a diagnosticar rapidamente a degradação da rede na rede da AWS com o indicador de integridade da rede (NHI), que o Network Synthetic Monitor grava em sua conta do Amazon CloudWatch. A métrica do NHI é um valor binário, com base em uma pontuação probabilística sobre se a degradação da rede está na AWS. O Network Synthetic Monitor fornece um monitoramento com uma abordagem de agente totalmente gerenciado, o que significa que você não precisa instalar agentes em VPCs ou on-premises. Para começar, você só precisa especificar uma sub-rede da VPC e um endereço IP on-premises. É possível estabelecer uma conexão privada entre a VPC e os recursos do Network Synthetic Monitor usando AWS PrivateLink. Para obter mais informações, consulte Usar o CloudWatch, o CloudWatch Synthetics e o CloudWatch Network Monitoring com endpoints de VPC de interface . O Network Synthetic Monitor publica métricas no CloudWatch Metrics. Você pode criar painéis para visualizar as métricas, e também pode criar limites e alarmes acionáveis nas métricas específicas da sua aplicação. Para obter mais informações, consulte Como o Network Synthetic Monitor funciona . Terminologia e componentes do Network Synthetic Monitor Sondas : uma sonda é o tráfego enviado de um recurso hospedado na AWS para um endereço IP de destino on-premises. As métricas do Network Synthetic Monitor medidas pela sonda são gravadas na conta do CloudWatch para cada sonda configurada em um monitor. Monitor : um monitor exibe o desempenho da rede e outras informações de integridade do tráfego para o qual você criou sondas do Network Synthetic Monitor. Você adiciona sondas como parte da criação de um monitor e, em seguida, pode visualizar as informações de métricas de desempenho da rede usando o monitor. Ao criar um monitor para uma aplicação, você adiciona um recurso hospedado na AWS como a origem da rede. O Network Synthetic Monitor então cria uma lista de todas as possíveis sondas entre os recursos hospedados na AWS e os endereços IP de destino. Você seleciona os destinos para os quais deseja monitorar o tráfego. Origem da rede da AWS : uma origem de rede da AWS é uma sonda de monitor derivada da origem da AWS, que é uma sub-rede em qualquer uma das VPCs. Destino : é o destino na rede on-premises para a origem da rede da AWS. O destino é uma combinação dos endereços IP on-premises, dos protocolos de rede, das portas e do tamanho do pacote da rede. Os endereços IPv4 e IPv6 são compatíveis. Requisitos e limitações do Network Synthetic Monitor Veja abaixo um resumo dos requisitos e limitações do Network Synthetic Monitor. Para cotas (ou limites) específicos, consulte Network Synthetic Monitor . As sub-redes do monitor devem pertencer à mesma conta do monitor. O Network Synthetic Monitor não fornece failover de rede automático no caso de um problema de rede da AWS. Há uma cobrança para cada sonda que você cria. Para obter detalhes de preço, consulte Preços do Network Synthetic Monitor . O Javascript está desativado ou não está disponível no seu navegador. Para usar a documentação da AWS, o Javascript deve estar ativado. Consulte as páginas de Ajuda do navegador para obter instruções. Convenções do documento Perfil vinculado a serviço Como o Network Synthetic Monitor funciona Essa página foi útil? - Sim Obrigado por nos informar que estamos fazendo um bom trabalho! Se tiver tempo, conte-nos sobre o que você gostou para que possamos melhorar ainda mais. Essa página foi útil? - Não Obrigado por nos informar que precisamos melhorar a página. Lamentamos ter decepcionado você. Se tiver tempo, conte-nos como podemos melhorar a documentação. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/it_it/AmazonCloudWatch/latest/logs/LogsAnomalyDetection.html | Rilevamento di anomalie nei log - CloudWatch Registri Amazon Rilevamento di anomalie nei log - CloudWatch Registri Amazon Documentazione Amazon CloudWatch Guida per l’utente Gravità e priorità delle anomalie e dei modelli Tempo di visibilità dell'anomalia Soppressione di un'anomalia Domande frequenti Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà. Rilevamento di anomalie nei log È possibile rilevare le anomalie nei dati di registro in due modi: creando un rilevatore di anomalie nei log per il monitoraggio continuo o utilizzando il comando nelle query di Logs Insights per l' anomaly detection analisi su richiesta. CloudWatch Un rilevatore di anomalie nel registro analizza gli eventi di registro inseriti in un gruppo di log e trova automaticamente le anomalie nei dati di registro. Il rilevamento delle anomalie utilizza l'apprendimento automatico e il riconoscimento dei pattern per stabilire le linee di base dei contenuti tipici dei log. Per l'analisi su richiesta, puoi utilizzare il anomaly detection comando nelle query di CloudWatch Logs Insights per identificare modelli insoliti nei dati delle serie temporali. Per ulteriori informazioni sul rilevamento delle anomalie basato su query, vedere. Utilizzo del rilevamento delle anomalie in Logs Insights CloudWatch Dopo aver creato un rilevatore di anomalie per un gruppo di log, questo si allena utilizzando gli eventi di registro delle ultime due settimane nel gruppo di log per l'addestramento. Il periodo di formazione può durare fino a 15 minuti. Una volta completato l'addestramento, inizia ad analizzare i log in entrata per identificare le anomalie e le anomalie vengono visualizzate nella console CloudWatch Logs per essere esaminate dall'utente. CloudWatch Logs Pattern Recognition estrae i pattern di log identificando i contenuti statici e dinamici nei log. I pattern sono utili per analizzare set di log di grandi dimensioni perché un gran numero di eventi di log può spesso essere compresso in pochi pattern. Ad esempio, vedete il seguente esempio di tre eventi di registro. 2023-01-01 19:00:01 [INFO] Calling DynamoDB to store for ResourceID: 12342342k124-12345 2023-01-01 19:00:02 [INFO] Calling DynamoDB to store for ResourceID: 324892398123-1234R 2023-01-01 19:00:03 [INFO] Calling DynamoDB to store for ResourceID: 3ff231242342-12345 Nell'esempio precedente, tutti e tre gli eventi di registro seguono uno schema: <Date-1> <Time-2> [INFO] Calling DynamoDB to store for resource id <ResourceID-3> I campi all'interno di un pattern sono chiamati token. I campi che variano all'interno di uno schema, come l'ID della richiesta o il timestamp, vengono definiti token dinamici. Ogni valore diverso trovato per un token dinamico viene chiamato valore token. Se CloudWatch Logs è in grado di dedurre il tipo di dati rappresentato da un token dinamico, il token viene visualizzato come. < string - number > string È una descrizione del tipo di dati rappresentato dal token. number Mostra dove nel modello appare questo token, rispetto agli altri token dinamici. CloudWatch Logs assegna la parte stringa del nome in base all'analisi del contenuto degli eventi di registro che la contengono. Se CloudWatch Logs non è in grado di dedurre il tipo di dati rappresentato da un token dinamico, visualizza il token come <Token- number > e number indica dove nel modello appare questo token rispetto agli altri token dinamici. Esempi comuni di token dinamici includono codici di errore, indirizzi IP, timestamp e richieste. IDs Il rilevamento delle anomalie nei log utilizza questi modelli per trovare anomalie. Dopo il periodo di addestramento del modello di rilevatore di anomalie, i log vengono valutati in base alle tendenze note. Il rilevatore di anomalie segnala le fluttuazioni significative come anomalie. Questo capitolo descrive come abilitare il rilevamento delle anomalie, visualizzare le anomalie, creare allarmi per i rilevatori di anomalie di registro e le metriche pubblicate dai rilevatori di anomalie di registro. Descrive inoltre come crittografare il rilevatore di anomalie e i relativi risultati con. AWS Key Management Service La creazione di rilevatori di anomalie di registro non comporta costi. Gravità e priorità delle anomalie e dei modelli A ogni anomalia rilevata da un rilevatore di anomalie di registro viene assegnata una priorità. A ogni pattern trovato viene assegnata una gravità. La priorità viene calcolata automaticamente e si basa sia sul livello di gravità del modello che sulla quantità di deviazione dai valori previsti. Ad esempio, se il valore di un determinato token aumenta improvvisamente del 500%, tale anomalia potrebbe essere designata come HIGH prioritaria anche se la sua gravità lo è. NONE La severità si basa solo sulle parole chiave presenti nei modelli come FATAL ERROR , e. WARN Se non viene trovata nessuna di queste parole chiave, la gravità di un pattern viene contrassegnata come NONE . Tempo di visibilità dell'anomalia Quando si crea un rilevatore di anomalie, si specifica il periodo massimo di visibilità delle anomalie. Questo è il numero di giorni in cui l'anomalia viene visualizzata nella console e viene restituita dall'operazione API. ListAnomalies Trascorso questo periodo di tempo relativo a un'anomalia, se continua a verificarsi, viene automaticamente accettata come comportamento normale e il modello di rilevatore di anomalie smette di contrassegnarla come anomalia. Se non modifichi il tempo di visibilità quando crei un rilevatore di anomalie, per impostazione predefinita vengono utilizzati 21 giorni. Soppressione di un'anomalia Dopo aver rilevato un'anomalia, è possibile scegliere di sopprimerla temporaneamente o permanentemente. La soppressione di un'anomalia fa sì che il rilevatore di anomalie smetta di contrassegnare tale evento come anomalia per il periodo di tempo specificato. Quando si sopprime un'anomalia, è possibile scegliere di sopprimere solo quell'anomalia specifica o di sopprimere tutte le anomalie relative al modello in cui è stata rilevata l'anomalia. È ancora possibile visualizzare le anomalie soppresse nella console. Puoi anche scegliere di smettere di sopprimerle. Domande frequenti AWS Utilizza i miei dati per addestrare algoritmi di apprendimento automatico da AWS utilizzare o per altri clienti? No. Il modello di rilevamento delle anomalie creato dal corso di formazione si basa sugli eventi di registro in un gruppo di log e viene utilizzato solo all'interno di quel gruppo di log e di quell' AWS account. Quali tipi di eventi di registro funzionano bene con il rilevamento delle anomalie? Il rilevamento delle anomalie nei log è ideale per: registri delle applicazioni e altri tipi di log in cui la maggior parte delle voci di registro rientra negli schemi tipici. I gruppi di log con eventi che contengono parole chiave a livello di registro o di gravità come INFO , ERROR e DEBUG sono particolarmente adatti per il rilevamento delle anomalie nei log. Il rilevamento delle anomalie nei log non è adatto per: Registra eventi con strutture JSON estremamente lunghe, come Logs. CloudTrail L'analisi dei pattern analizza solo fino ai primi 1500 caratteri di una riga di registro, quindi tutti i caratteri oltre tale limite vengono ignorati. Anche i log di controllo o di accesso, come i log di flusso VPC, avranno meno successo con il rilevamento delle anomalie. Il rilevamento delle anomalie serve a individuare i problemi delle applicazioni, quindi potrebbe non essere adatto per le anomalie di rete o di accesso. Per aiutarvi a determinare se un rilevatore di anomalie è adatto a un determinato gruppo di log, utilizzate l'analisi del pattern CloudWatch Logs per trovare il numero di pattern negli eventi di registro del gruppo. Se il numero di pattern non è superiore a circa 300, il rilevamento delle anomalie potrebbe funzionare bene. Per ulteriori informazioni sull'analisi dei pattern, vedere Analisi del modello . Cosa viene contrassegnato come anomalia? Le seguenti occorrenze possono far sì che un evento di registro venga contrassegnato come anomalia: Un evento di registro con uno schema mai visto prima nel gruppo di log. Una variazione significativa rispetto a un modello noto. Un nuovo valore per un token dinamico che ha un insieme discreto di valori usuali. Una grande variazione nel numero di occorrenze di un valore per un token dinamico. Sebbene tutti gli elementi precedenti possano essere contrassegnati come anomalie, non tutti significano che l'applicazione stia funzionando male. Ad esempio, higher-than-usual alcuni valori di 200 successo potrebbero essere contrassegnati come anomalia. In casi come questo, potresti prendere in considerazione la possibilità di eliminare queste anomalie che non indicano problemi. Cosa succede con i dati sensibili che vengono mascherati? Qualsiasi parte degli eventi di registro mascherata come dati sensibili non viene analizzata per individuare eventuali anomalie. Per ulteriori informazioni sul mascheramento dei dati sensibili, consulta Aiutare a proteggere i dati di registro sensibili con il mascheramento. JavaScript è disabilitato o non è disponibile nel tuo browser. Per usare la documentazione AWS, JavaScript deve essere abilitato. Consulta le pagine della guida del browser per le istruzioni. Convenzioni dei documenti Risoluzione dei problemi relativi alle interrogazioni pianificate Utilizzo del rilevamento delle anomalie in Logs Insights CloudWatch Questa pagina ti è stata utile? - Sì Grazie per averci comunicato che stiamo facendo un buon lavoro! Se hai un momento, ti invitiamo a dirci che cosa abbiamo fatto che ti è piaciuto così possiamo offrirti altri contenuti simili. Questa pagina ti è stata utile? - No Grazie per averci comunicato che questa pagina ha bisogno di essere modificata. Siamo spiacenti di non aver soddisfatto le tue esigenze. Se hai un momento, ti invitiamo a dirci come possiamo migliorare la documentazione. | 2026-01-13T09:29:26 |
https://docs.aws.amazon.com/de_de/AmazonCloudWatch/latest/monitoring/working_with_metrics.html | Metriken bei Amazon CloudWatch - Amazon CloudWatch Metriken bei Amazon CloudWatch - Amazon CloudWatch Dokumentation Amazon CloudWatch Benutzer-Leitfaden Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich. Metriken bei Amazon CloudWatch Metriken sind Daten über die Leistung Ihrer Systeme. Standardmäßig bieten viele Dienste kostenlose Metriken für Ressourcen (wie EC2 Amazon-Instances, Amazon EBS-Volumes und Amazon RDS-DB-Instances). Sie können auch die detaillierte Überwachung für einige Ressourcen aktivieren, z. B. für Ihre EC2 Amazon-Instances, oder Ihre eigenen Anwendungsmetriken veröffentlichen. Amazon CloudWatch kann alle Metriken in Ihrem Konto (sowohl AWS Ressourcen- als auch Anwendungsmetriken, die Sie angeben) für die Suche, grafische Darstellung und Alarme laden. Metrikdaten werden 15 Monate lang aufbewahrt, sodass Sie sowohl up-to-the-minute Daten als auch historische Daten einsehen können. Um Metriken in der Konsole grafisch darzustellen, können Sie CloudWatch Metrics Insights verwenden, eine leistungsstarke SQL-Abfrage-Engine, mit der Sie Trends und Muster in all Ihren Metriken in Echtzeit identifizieren können. CloudWatch Metrics Insights unterstützt die Abfrage von historischen Daten für bis zu zwei Wochen und ermöglicht so eine umfassende Analyse von Metriktrends. Themen Metrik-Konzepte Grundlegende Überwachung und detaillierte Überwachung in CloudWatch Fragen Sie Ihre CloudWatch Metriken mit Metrics Insights ab CloudWatch Verwenden Sie den Metrik-Explorer, um Ressourcen anhand ihrer Tags und Eigenschaften zu überwachen Metrik-Streams verwenden Anzeigen der verfügbaren Metriken Grafisches Darstellen von Metriken Verwendung der CloudWatch Ausreißererkennung Verwendung mathematischer Ausdrücke mit CloudWatch Metriken Suchausdrücke in Diagrammen verwenden Abrufen von Statistiken für eine Metrik Veröffentlichen von benutzerdefinierten Metriken JavaScript ist in Ihrem Browser nicht verfügbar oder deaktiviert. Zur Nutzung der AWS-Dokumentation muss JavaScript aktiviert sein. Weitere Informationen finden auf den Hilfe-Seiten Ihres Browsers. Dokumentkonventionen Änderung des Zeitraums oder Zeitzonenformats Konzepte Hat Ihnen diese Seite geholfen? – Ja Vielen Dank, dass Sie uns mitgeteilt haben, dass wir gute Arbeit geleistet haben! Würden Sie sich einen Moment Zeit nehmen, um uns mitzuteilen, was wir richtig gemacht haben, damit wir noch besser werden? Hat Ihnen diese Seite geholfen? – Nein Vielen Dank, dass Sie uns mitgeteilt haben, dass diese Seite überarbeitet werden muss. Es tut uns Leid, dass wir Ihnen nicht weiterhelfen konnten. Würden Sie sich einen Moment Zeit nehmen, um uns mitzuteilen, wie wir die Dokumentation verbessern können? | 2026-01-13T09:29:26 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.