Close
Logo Atlassian SI.

Atlassian Intelligence i Rovo opracowano z myślą o transparentności

Nasze bezkompromisowe zaangażowanie w otwartą komunikację, odpowiedzialność i pomaganie zespołom w odpowiedzialnym korzystaniu z AI.

Rovo

Wybierz funkcję Rovo poniżej, aby uzyskać przejrzyste informacje na temat przypadków użycia i wykorzystania danych.

Jak agenty Rovo korzystają z Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Agenty Rovo są obsługiwane przez duże modele językowe opracowane przez OpenAI i Google, a także kombinację dużych modeli językowych typu open source (w tym serii Llama) i innych modeli uczenia maszynowego. Modele te obejmują serię modeli GPT firmy OpenAI i serię modeli Gemini firmy Google.

Agenty Rovo wykorzystują te modele do dostarczania funkcji do analizy i generowania odpowiedzi na monity w języku naturalnym oraz dostarczania odpowiednich odpowiedzi z produktów Atlassian oraz powiązanych produktów innych firm.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Dowiedz się więcej o możliwościach modeli OpenAI i modeli Google. Aby dowiedzieć się więcej o modelach językowych typu open source, zapoznaj się z informacjami na temat serii Llama.

O agentach Rovo Copy link to heading Copied! Pokaż
  

Dzięki Rovo zapewniamy wiele agentów gotowych do użycia w różnych zadaniach, takich jak pomoc w podejmowaniu decyzji, publikowanie dokumentacji informacyjnej oraz porządkowanie lub organizowanie zgłoszeń w Jirze. Agenty to wyspecjalizowani koledzy z zespołu sztucznej inteligencji, którzy mogą pomóc zespołom ludzkim w szybkim i skutecznym posuwaniu się naprzód.

Możesz:

  • tworzyć własne agenty za pomocą języka naturalnego oraz dostosowywać ich instrukcje, wiedzę i działania;
  • tworzyć własne agenty za pomocą kodu (Forge), aby uzyskać bardziej zaawansowane integracje z wewnętrznymi narzędziami organizacji;
  • instalowania agentów za pomocą aplikacji opracowanych przez zewnętrznych programistów ze sklepu Marketplace, klientów i partnerów Atlassian, które są zazwyczaj bardziej wyrafinowanymi agentami tworzonymi przy użyciu kodu (Forge).

Uważamy, że agenty ROVO działają najlepiej w następujących scenariuszach:

  • Powtarzalne lub formułowane zadanie, które można łatwo zautomatyzować za pomocą agenta. Dowiedz się więcej o automatyzacjach
  • Generowanie pomysłów lub opracowywanie treści do pracy
  • Szybkie wyszukiwanie konkretnych informacji
Ograniczenia i uwagi dotyczące korzystania z agentów Rovo Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi agentów ROVO mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Z naszych doświadczeń wynika, że agenty Rovo są mniej użyteczne w scenariuszach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • Potrzebujesz informacji ze swojej przestrzeni roboczej, do których nie masz dostępu.
  • Potrzebujesz bardzo spójnych i regularnych danych wyjściowych, które nie podlegają żadnym zmianom, ponieważ odpowiedzi mogą się różnić z wielu powodów, w tym ze względu na uprawnienia użytkowników.
  • Nie uczestniczą ludzie. Agenty działają najlepiej we współpracy z człowiekiem, który weryfikuje lub ukierunkowuje pożądane rezultaty.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Jak najbardziej konkretne formułowanie poleceń dla Atlassian Intelligence lub Rovo.
  • Zapoznanie się z przewodnikami najlepszych praktyk dotyczących pisania poleceń dla agentów.
  • Znalezienie skutecznych lub przetestowanych sposobów włączenia agentów do zespołu. Możesz zobaczyć, jak inni członkowie zespołu korzystają z agentów, wyświetlając profile agentów.
Twoje dane i agenty Rovo Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki agenty Robo wykorzystują Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania.

Przetwarzamy:

  • Twoje prompty (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do polecenia, taki jak strona Confluence, zgłoszenie Jira lub dokument z połączonego produktu innej firmy. Jeśli korzystasz z agentów na czacie Rovo za pośrednictwem rozszerzenia do przeglądarki Chrome, obejmuje to publiczną stronę internetową lub otwarty dokument Google.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane strumienia kliknięć i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie prompty lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Podczas korzystania z agentów Rovo wobec Twoich danych są stosowane poniższe środki w stosunku do Twoich danych.

  • Twoje prompty (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI i Google;
    • nie są przechowywane przez żadnego zewnętrznego dostawcę LLM;
    • Nie są używane do ulepszania żadnych dużych modeli językowych.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
    • Są przechowywane przez Atlassian przez 30 dni ze względów bezpieczeństwa.

  • OpenAI jest podrzędnym podmiotem przetwarzającym znajdującym się na naszej liście podrzędnych podmiotów przetwarzających. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem wniosku.
  • Ta funkcja działa zgodnie z uprawnieniami w instancji. Na przykład jeśli nie masz dostępu do określonej strony Confluence, otrzymana odpowiedź nie będzie zawierać sugerowanej treści z tej strony. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.

Powyższe szczegóły dotyczą agentów dostarczanych przez Atlassian. Więcej informacji na temat agentów dostarczanych przez Atlassian zawiera strona Wytyczne dotyczące danych, prywatności i użytkowania Rovo | Rovo | Wsparcie Atlassian. Aby uzyskać informacje o agentach dostarczanych przez inne firmy, zapoznaj się z Warunkami dostawcy udostępnianymi przez te firmy dla ich aplikacji.

Dowiedz się więcej o Atlassian Intelligence

Dowiedz się więcej o korzystaniu z Atlassian Intelligence

Dowiedz się więcej o agentach w automatyzacjach

Jak czat ROVO korzysta z Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Czat Rovo jest obsługiwany przez duże modele językowe opracowane przez OpenAI i Google, a także kombinację dużych modeli językowych typu open source (w tym serii Llama) i innych modeli uczenia maszynowego. Modele te obejmują serię modeli GPT firmy OpenAI i serię modeli Gemini firmy Google.

Czat Rovo wykorzystuje te modele do analizowania i generowania odpowiedzi na monity w języku naturalnym oraz dostarczania odpowiednich odpowiedzi z produktów Atlassian oraz powiązanych produktów innych firm.

Odpowiedzi są generowane przez duże modele językowe na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że odpowiedzi pochodzące od dużych modeli językowych są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których zostały one wytrenowane.

Dowiedz się więcej o możliwościach modeli OpenAI i modeli Google. Aby dowiedzieć się więcej o modelach językowych typu open source, zapoznaj się z informacjami na temat serii Llama.

Przypadki użycia czatu Rovo Copy link to heading Copied! Pokaż
  

Czat Rovo umożliwia dostęp do wiedzy o Twojej organizacji za pośrednictwem interfejsu konwersacyjnego. Oznacza to, że możesz poprosić Rovo tak jak osobę o napisanie, przeczytanie, ocenę lub stworzenie czegoś, bez zakłócania przepływu pracy. Czat rozumie kontekst Twojej pracy (zarówno w produktach Atlassian, jak i powiązanych produktach innych firm), aby móc odpowiadać na pytania lub pomagać w dostarczaniu pomysłów lub analiz.

Uważamy, że czat ROVO działa najlepiej w scenariuszach, w których:

  • Twoja organizacja chce zapewnić użytkownikom łatwy, konwersacyjny sposób dostępu do wiedzy firmy w oparciu o uprawnienia dostępu każdego użytkownika.
  • Interfejs konwersacyjny jest lepszy podczas wykonywania zadań, takich jak tworzenie stron lub zgłoszeń Jira, znajdowanie interesariuszy lub informacji istotnych dla Twojej pracy.
  • Potrzebujesz pomocy w dopracowaniu tekstu pisanego.
  • Potrzebujesz pomocy w zrozumieniu długich lub złożonych stron zawierających wiedzę.
  • Potrzebujesz pomocy w znalezieniu luk lub obszarów do poprawy w zgłoszeniach Jira lub na stronach Confluence.

Dostęp do czatu Rovo użytkownicy mogą także uzyskać za pośrednictwem rozszerzenia do przeglądarki Chrome. Więcej informacji na temat dostępu do czatu Rovo można znaleźć tutaj i tutaj.

Co należy wziąć pod uwagę podczas korzystania z czatu ROVO Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi czatu ROVO mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Z naszych doświadczeń wynika, że czat ROVO jest mniej użyteczny w scenariuszach, w których:

  • Potrzebujesz deterministycznych, kompletnych i dokładnych informacji o ludziach, miejscach i faktach.
  • Potrzebujesz informacji, do których nie masz dostępu w ramach swojej przestrzeni roboczej.
  • Trzeba zadawać pytania i otrzymywać odpowiedzi w językach innych niż angielski.

Dlatego zachęcamy do zastanowienia się nad sytuacjami, w których można skorzystać z czatu Rovo, i sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Jak najbardziej konkretne formułowanie poleceń dla czatu Rovo. Przykładowo możesz podać w żądaniu konkretne osoby, strony, projekty, terminy lub inny kontekst związany z pytaniem bądź dodać wyjaśnienia w trakcie dalszych rozmów z czatem Rovo. Wskazówki dotyczące pisania poleceń na czacie.
  • Poświęcenie chwili na dopracowanie poleceń i rozmowę z czatem Rovo pozwala uzyskać lepsze wyniki.
Twoje dane i czat Rovo Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki czat Rovo wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania.

Przetwarzamy:

Twoje prompty (dane wejściowe) i odpowiedzi (dane wyjściowe);

  • Kontekst instancji odpowiedni do polecenia, taki jak strona Confluence, zgłoszenie Jira lub dokument z połączonego produktu innej firmy. Jeśli korzystasz z czatu Rovo za pośrednictwem rozszerzenia do przeglądarki Chrome, obejmuje to publiczną stronę internetową lub otwarty dokument Google.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane strumienia kliknięć i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie prompty lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Podczas korzystania z czatu Rovo wobec Twoich danych stosowane są wymienione poniżej środki.

  • Twoje prompty (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI i Google;
    • nie są przechowywane przez żadnego zewnętrznego dostawcę LLM;
    • Nie są używane do ulepszania żadnych dużych modeli językowych.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
    • Są przechowywane w historii czatu przez 30 dni, dzięki czemu możesz wrócić i sprawdzić poprzednie rozmowy.
    • Są przechowywane przez Atlassian przez 30 dni ze względów bezpieczeństwa.

OpenAI jest podrzędnym podmiotem przetwarzającym znajdującym się na naszej liście podrzędnych podmiotów przetwarzających. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem i obsługą żądania.

Ta funkcja działa zgodnie z uprawnieniami w instancji. Na przykład jeśli nie masz dostępu do określonej strony Confluence, otrzymana odpowiedź nie będzie zawierać sugerowanej treści z tej strony. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.

W przypadku dostępu do czatu Rovo z rozszerzenia do przeglądarki Chrome czat będzie tylko odczytywał treść na przeglądanej stronie internetowej, aby uzupełnić treść już znajdującą się w produktach Atlassian. Nie będą przechowywane żadne dodatkowe dane ze strony internetowej.

Dowiedz się więcej o Atlassian Intelligence

Dowiedz się więcej o korzystaniu z Atlassian Intelligence

Dowiedz się więcej o korzystaniu z czatu Rovo

Dowiedz się więcej o rozszerzeniu do przeglądarki

Jak wyszukiwanie Rovo korzysta z Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Wyszukiwanie Rovo korzysta z SI w celu ulepszania możliwości wyszukiwania w narzędziach firmy Atlassian i innych firm.

Wyszukiwanie Rovo jest obsługiwane przez duże modele językowe opracowane przez OpenAI i Google, a także kombinację dużych modeli językowych typu open source (w tym serii Llama) i innych modeli uczenia maszynowego. Modele te obejmują serię modeli GPT firmy OpenAI i serię modeli Gemini firmy Google.

Wyszukiwanie Rovo wykorzystuje te modele w celu zapewniania funkcji, takich jak wyszukiwanie semantyczne, ranking relewancji i przetwarzanie języka naturalnego. Obejmuje to analizę zapytań wyszukiwania w języku naturalnym i generowanie na nie odpowiedzi oraz dostarczanie właściwych odpowiedzi na podstawie danych z produktów Atlassian i połączonych produktów innych firm.

Odpowiedzi są generowane przez duże modele językowe na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że odpowiedzi pochodzące od dużych modeli językowych są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których zostały one wytrenowane.

Dowiedz się więcej o możliwościach modeli OpenAI i modeli Google. Aby dowiedzieć się więcej o modelach językowych typu open source, zapoznaj się z informacjami na temat serii Llama.

Przypadki użycia wyszukiwania Rovo Copy link to heading Copied! Pokaż
  

Wyszukiwanie Rovo umożliwia użytkownikom wyszukiwanie w wielu narzędziach i na wielu platformach, w tym w produktach Atlassian i połączonych produktach innych firm, zapewniając kontekstowe i trafne wyniki w celu usprawnienia współpracy zespołowej i zwiększenia produktywności.

Uważamy, że wyszukiwanie Rovo działa najlepiej w scenariuszach, w których:

  1. Konieczne jest wyszukiwanie w różnych produktach Atlassian (takich jak Jira i Confluence) oraz połączonych produktach innych firm (takich jak Dysk Google i SharePoint) w jednym interfejsie, bez przełączania kontekstu.
  2. Twoje zespoły potrzebują szybkiego dostępu do istotnych informacji z różnych źródeł, aby zaoszczędzić czas na przeszukiwanie wszystkich tych źródeł osobno;
  3. Chcesz, aby wyniki wyszukiwania były zwracane na podstawie uprawnień dostępu użytkowników.
Co należy wziąć pod uwagę podczas korzystania z wyszukiwania Rovo Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi wyszukiwania Rovo, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Z naszych doświadczeń wynika, że wyszukiwanie Rovo jest mniej użyteczne w scenariuszach, w których:

  • Twój zespół korzysta głównie z jednego produktu lub platformy i nie potrzebuje możliwości wyszukiwania międzyplatformowego;
  • Twoja organizacja korzysta z niszowych lub wysoce wyspecjalizowanych narzędzi innych firm, które nie są obsługiwane przez łączniki Rovo.
  • masz małe zespoły lub projekty z minimalnymi potrzebami w zakresie danych i dokumentacji.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Rovo, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Przed połączeniem produktu innej firmy sprawdź uprawnienia skonfigurowane dla tego produktu. Wyszukiwanie Rovo będzie respektować uprawnienia, ale może być konieczne ustawienie odpowiednich uprawnień dla danej przestrzeni lub treści.
  • Należy pamiętać, że wyniki wyszukiwania różnią się dla poszczególnych użytkowników, ponieważ wyszukiwanie Rovo uwzględnia uprawnienia i obejmuje wyniki, do których dostęp ma tylko bieżący użytkownik.
  • Wyszukiwanie Rovo może zwracać bogatsze wyniki dotyczące osób i zespołów, jeśli zsynchronizujesz swój schemat organizacyjny ze stroną główną Atlassian.
  • Zachęcanie zespołu nie tylko do wyszukiwania słów kluczowych, ale także do zadawania pytań (na przykład „Kim jest Joanna Kowalska?” lub „Jakie są zasady dotyczące urlopów?”) podczas korzystania z wyszukiwania Rovo.
Twoje dane i wyszukiwanie Rovo Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki wyszukiwanie Rovo wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania.

Przetwarzamy:

  • Twoje prompty (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do polecenia, taki jak treść dokumentów z produktów Atlassian i połączonych produktów innych firm, uprawnienia do dokumentów i metadane plików.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane strumienia kliknięć i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie prompty lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Podczas korzystania z wyszukiwania Rovo wobec Twoich danych stosowane są wymienione poniżej środki.

  • Twoje polecenia i odpowiedzi:
    • Nie są dostępne dla innych klientów.
    • nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI i Google;
    • nie są przechowywane przez żadnego zewnętrznego dostawcę LLM;
    • Nie są używane do ulepszania żadnych dużych modeli językowych.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • OpenAI jest podrzędnym podmiotem przetwarzającym znajdującym się na naszej liście podrzędnych podmiotów przetwarzających. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem wniosku.
  • Wyszukiwanie Rovo działa zgodnie z uprawnieniami w Twoich produktach.
    • Dane są przechowywane w opartym na chmurze indeksie wyszukiwania i systemie przechowywania jednostek Atlassian. Wyszukiwanie Rovo jest synchronizowane z danymi listy kontroli dostępu (ACL) z produktów innych firm i połączonych produktów Atlassian, aby zapewnić, że użytkownicy widzą tylko treści, do których mają uprawnienia.
    • Jeśli na przykład nie masz dostępu do prywatnej strony Confluence lub dokumentu Dysku Google, otrzymana odpowiedź nie będzie zawierać tych sugerowanych treści. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach dla innych użytkowników produktów Atlassian i innych firm, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.
  • Atlassian może przechowywać Twoje zapytania wyszukiwania, aby ulepszyć wyszukiwanie dla użytkowników. Podobnie jak w przypadku wszystkich funkcji Atlassian Intelligence i Rovo Twoje zapytania nie są wykorzystywane do trenowania modeli innych klientów.
  • „Monitorujemy” usuwanie treści i aktualizujemy indeks Rovo o zmiany. Przykładowo po aktualizacji indeksu Rovo treść usunięta z połączonego produktu innej firmy nie będzie widoczna w wynikach Rovo. Więcej o wykorzystywaniu danych przez Rovo.

Dowiedz się więcej o Atlassian Intelligence

Czym jest Atlassian Intelligence? | Wsparcie Atlassian

Rovo: odblokuj wiedzę organizacyjną dzięki generatywnej sztucznej inteligencji | Atlassian

Automatyzacja przy użyciu Atlassian Intelligence

Jak AI ChatOps do zarządzania incydentami wykorzystuje Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Funkcje AI ChatOps do zarządzania incydentami są obsługiwane przez duże modele językowe opracowane przez OpenAI, a także kombinację dużych modeli językowych typu open source (w tym serii Llama i Phi) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model był trenowany.

Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi..

Przypadki użycia AI ChatOps do zarządzania incydentami Copy link to heading Copied! Pokaż
  

AI ChatOps do zarządzania incydentami pomaga użytkownikom przyspieszyć proces rozstrzygania incydentów. Przedstawia podsumowanie odpowiedniego incydentu i wszystkich dotychczasowych rozmów na jego temat nowym użytkownikom po dodaniu ich do kanału Slack, który jest powiązany ze zgłoszeniem incydentu w Jira Service Management. Ponadto AI ChatOps do zarządzania incydentami może rejestrować rozmowy prowadzone na Slacku w narzędziu Jira Service Management w formie osi czasu do wykorzystania w przyszłości.

Naszym zdaniem AI ChatOps do zarządzania incydentami najlepiej sprawdza się w scenariuszach, w których:

  • Twoja organizacja używa narzędzia Slack jako podstawowego narzędzia do współpracy w celu selekcjonowania i rozwiązywania incydentów;
  • Twoja organizacja przestrzega protokołu dokumentowania rozmów związanych z incydentem w ramach zgłoszenia incydentu w Jira Service Management.

Uwagi dotyczące korzystania z AI ChatOps do zarządzania incydentami Copy link to heading Copied! Pokaż
  

Należy pamiętać, że ze względu na sposób działania modeli używanych do obsługi AI ChatOps dla zarządzania incydentami mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Otrzymane odpowiedzi mogą na przykład nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca.

Z naszych doświadczeń wynika, że model AI ChatOps do zarządzania incydentami jest mniej przydatny w scenariuszach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;

  • nie używasz komunikatora Slack jako głównego narzędzia Twojej organizacji do współpracy w celu selekcjonowania i rozwiązywania incydentów;

  • Twój zespół nie ma dostępu do zgłoszenia incydentu w Jira Service Management lub do kanału Slack powiązanego ze zgłoszeniem incydentu, które jest właśnie klasyfikowane.

Dlatego zachęcamy do rozważenia sytuacji, w których można wykorzystać AI ChatOps do zarządzania incydentami i sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym osobom.

Warto też pomyśleć o przejrzeniu uprawnień, aby upewnić się, że użytkownicy mają odpowiedni poziom dostępu do odpowiednich zgłoszeń incydentów i kanałów Slack.

Twoje dane i AI ChatOps do zarządzania incydentami Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki AI ChatOps do zarządzania incydentami wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • kontekst instancji odpowiedni dla promptu, taki jak dane incydentów i wiadomości w połączonych kanałach Slack;

  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;

  • dowolne opinie, które przekazujesz na temat tej funkcji, w tym wszelkie prompty lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanych opinii.

W stosunku do Twoich danych AI ChatOps do zarządzania incydentami stosuje następujące środki:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI;
    • Nie są przechowywane przez OpenAI.
    • nie są wykorzystywane do ulepszania rozwiązań OpenAI ani żadnego innego zewnętrznego dostawcy LLM;
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • OpenAI jest podwykonawcą przetwarzania znajdującym się na naszej stronie Podwykonawcy przetwarzania. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem wniosku.
  • Ta funkcja działa zgodnie z uprawnieniami dotyczącymi produktu. Przykładowo, jeśli nie masz dostępu do zgłoszenia incydentu, nie znajdziesz wystarczającego kontekstu podczas generowania AI ChatOps do zarządzania incydentami. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedzi dla innych użytkowników Twojego produktu, uzgodnij z administratorem organizacji odpowiednie ustawienia uprawnień dostępu dla zespołu.
Jak funkcja wersji roboczych AI wykorzystuje Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Wersje robocze AI bazują na dużych modelach językowych opracowanych przez OpenAI i Anthropic, a także na połączeniu modeli językowych opartych na transformatorach open source i innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT OpenAI i serię modeli Claude firmy Anthropic.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele kodujące open-source konwertują tekstowe dane wejściowe w formy numeryczne (osadzenia), które są używane do identyfikowania i przygotowania tematów na podstawie danych wejściowych.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model był trenowany.

Dowiedz się więcej o możliwościach modeli OpenAI i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zapoznaj się z informacjami na temat modeli osadzonych.

Przypadki użycia wersji roboczych AI Copy link to heading Copied! Pokaż
  

Wersje robocze AI sugerują wstępnie wygenerowane wersje robocze artykułów z bazy wiedzy do uwzględnienia przez administratorów i agentów. Funkcja ta generuje wersje robocze dla najczęściej występujących zgłoszeń w projekcie Jira Service Management, wykorzystując szczegóły i komentarze w ramach zgłoszeń w tym projekcie.

Umożliwia to zespołom obsługi szybsze i łatwiejsze zwiększanie zasięgu artykułów z bazy wiedzy, co z kolei korzystnie wpływa na wydajność innych funkcji Jira Service Management. Przykładowo artykuły z bazy wiedzy utworzone przy użyciu wersji roboczych AI mogą być następnie wykorzystywane przez funkcję odpowiedzi sztucznej inteligencji od wirtualnego agenta obsługi w celu łatwiejszego i szybszego rozstrzygania wniosków od osób poszukujących pomocy.

Przeczytaj więcej o odpowiedziach sztucznej inteligencji w wirtualnym agencie obsługi.

Uważamy, że wersje robocze AI działają najlepiej w scenariuszach, w których:

  • Projekt otrzymuje ponad 40 wniosków w każdym miesiącu. Projekty z mniej niż 40 wnioskami mogą nie zawierać wystarczającej ilości informacji do utworzenia wersji roboczych AI.
  • Treść zgłoszeń, taka jak podsumowanie, opis i inne pola, jest tworzona głównie w języku angielskim. Jakość wersji roboczych AI może być różna w przypadku innych języków.
Co należy wziąć pod uwagę podczas korzystania z wersji roboczych AI Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi wersji roboczych AI mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Z naszych doświadczeń wynika, że wersje robocze AI są mniej użyteczne w scenariuszach, w których:

  • Projekt otrzymuje mniej niż 40 wniosków w miesiącu.
  • Projekt automatycznie tworzy wnioski na podstawie alertów, ponieważ mogą one nie potrzebować artykułu z bazy wiedzy, ale funkcja nadal będzie sugerować Ci wersje robocze AI w odniesieniu do tych wniosków.
  • Potrzebujesz wersji roboczych zgłoszeń w językach innych niż angielski.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Wprowadzenie odpowiednich środków gwarantujących, że członkowie zespołu dokładnie zapoznają się z wersjami roboczymi AI przed przystąpieniem do tworzenia artykułów z bazy wiedzy na ich podstawie.
  • Zwrócenie się do administratorów projektu o wskazanie w zespołach ekspertów, którzy będą odpowiedzialni za przeglądanie i edytowanie wersji roboczych AI w celu utrzymania wysokiej jakości artykułów z bazy wiedzy.
Twoje dane i funkcja wersji roboczych AI Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki wersje robocze AI wykorzystują Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania.

Przetwarzamy:

  • Twoje prompty (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji istotny dla funkcji, taki jak dane w zgłoszeniu, np. wartości pól, podsumowanie i opis, w celu wygenerowania wersji roboczych za pomocą Atlassian Intelligence.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane strumienia kliknięć i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie prompty lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Funkcja wersji roboczych AI stosuje poniższe środki w odniesieniu do Twoich danych.

  • Twoje prompty (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów
    • Nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI lub Anthropic w usłudze AWS Bedrock.
    • Nie są przechowywane przez żadnego dostawcę LLM.
    • Nie są wykorzystywane do ulepszania jakichkolwiek zewnętrznych LLM.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • OpenAI i AWS Bedrock są podrzędnymi podmiotami przetwarzającymi znajdującymi się na naszej liście podrzędnych podmiotów przetwarzających. Podmioty te nie wykorzystują Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem wniosku.
  • Przetwarzamy tylko zgłoszenia, które są dostępne dla wszystkich w projekcie usługowym w Twojej witrynie. Zgłoszenia objęte uprawnieniami nie są uwzględniane przy generowaniu wersji roboczych.
  • Odświeżamy wersje robocze AI co 7 dni, aby treść była aktualna.
Jak funkcja podsumowania AI na kartach centrum firmy wykorzystuje Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Podsumowania AI na kartach centrum firmy opierają się na dużych modelach językowych opracowanych przez OpenAI. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model był trenowany.

Przeczytaj więcej o możliwościach modeli OpenAI.

Przypadki użycia funkcji podsumowań AI na kartach centrum firmy Copy link to heading Copied! Pokaż
  

Podsumowania AI na kartach centrum firmy pomagają szybko wypełnić i opublikować centrum firmy, sugerując generowane przez AI opisy kart. Ta funkcja wykorzystuje Atlassian Intelligence do generowania podsumowania powiązanej strony Confluence lub wpisu na blogu na potrzeby karty centrum firmy.

Uważamy, że podsumowania AI na kartach centrum firmy działają najlepiej w scenariuszach, w których:

  • Chętnie używasz kart centrum firmy w Confluence, aby odsyłać do treści zawierających dużo tekstu.
  • Potrzebujesz zwięzłego podsumowania treści Confluence o dużej zawartości tekstu, które będzie wyświetlane w opisach kart Confluence.
Co należy wziąć pod uwagę podczas korzystania z podsumowań AI na kartach centrum firmy Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych przez funkcję podsumowań AI na kartach centrum firmy mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Z naszych doświadczeń wynika, że funkcja podsumowań AI na kartach centrum firmy jest mniej użyteczna w scenariuszach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • Potrzebujesz podsumowania bardzo krótkiej strony Confluence, na której nie ma wystarczającej ilości treści do wygenerowania przydatnego podsumowania.
  • potrzebujesz podsumowania strony Confluence, na której większość treści znajduje się w tabelach lub rozszerzeniach;
  • potrzebujesz podsumowania strony Confluence, na której większość treści znajduje się w makrach.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Twoje dane i podsumowania AI na kartach centrum firmy Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki funkcja podsumowań AI na kartach centrum firmy wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania.

Przetwarzamy:

  • Twoje prompty (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do podpowiedzi, np. treść ze strony Confluence, którą chcesz podsumować.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane strumienia kliknięć i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie prompty lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Funkcja podsumowań AI na kartach centrum firmy stosuje poniższe środki w odniesieniu do Twoich danych.

  • Twoje prompty (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI.
    • nie są przechowywane przez żadnego dostawcę LLM;
    • Nie są używane do ulepszania dużych modeli językowych.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • OpenAI jest podrzędnym podmiotem przetwarzającym znajdującym się na naszej liście podrzędnych podmiotów przetwarzających. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem wniosku.
  • Ta funkcja działa zgodnie z uprawnieniami w instancji. Przykładowo jeśli nie masz dostępu do strony Confluence, nie będziesz mieć możliwości korzystania tej funkcji, aby uzyskać podsumowanie za pomocą Atlassian Intelligence. Jeśli nie chcesz, aby Twoje treści były dostępne dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.
W jaki sposób zasoby powiązane z AI wykorzystują Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zasoby powiązane z AI są obsługiwane przez duże modele językowe opracowane przez OpenAI, a także kombinację dużych modeli językowych typu open source (w tym serii Llama i Phi) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach oraz do dostarczania trafnych odpowiedzi od Atlassian i powiązanych produktów innych firm.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model był trenowany.

Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi..

Przypadki użycia zasobów powiązanych z AI Copy link to heading Copied! Pokaż
  

Atlassian Intelligence umożliwia Twoim użytkownikom przyspieszenie procesu rozstrzygania incydentów, sugerując listę zasobów, do których mogą się odwoływać, w powiązanych przestrzeniach i artykułach z bazy wiedzy, zgłoszeniach Jira oraz (jeśli jesteś klientem Rovo) dowolnych produktach innych firm, które zintegrujesz za pośrednictwem Rovo. Przeczytaj więcej o Rovo i narzędziach innych firm.

Naszym zdaniem zasoby powiązane z AI najlepiej sprawdzają się w scenariuszach, w których:

  • Twoja organizacja ma bogatą dokumentację w powiązanych przestrzeniach bazy wiedzy i połączonych narzędziach innych firm, istotnych i pomocnych w rozwiązywaniu incydentów występujących w organizacji;

  • podczas selekcjonowania incydentu Twój zespół potrzebuje szybkiego dostępu do zasobów, które prawdopodobnie są istotne dla incydentu.

Uwagi dotyczące korzystania z zasobów powiązanych z AI Copy link to heading Copied! Pokaż
  

Pamiętaj, że ze względu na sposób działania modeli używanych do obsługi zasobów powiązanych z AI, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca.

Z naszych doświadczeń wynika, że zasoby powiązane z AI są mniej użyteczne w scenariuszach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;

  • potrzebujesz zasobów powiązanych z AI, aby uzyskać dostęp do informacji, które nie są dla Ciebie łatwo dostępne, takich jak poufne dokumenty Confluence (np. strony Confluence z ograniczeniami), aby właściwie odpowiedzieć na Twój wniosek;

  • w konfiguracji dostępna jest minimalna dokumentacja, za pomocą której Atlassian Intelligence może zasugerować powiązane zasoby.

Dlatego zachęcamy Cię do rozważenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzenia jakości uzyskanych odpowiedzi przed udostępnieniem ich innym osobom.

Inne kwestie warte przemyślenia:

  • sprawdzenie uprawnień, aby upewnić się, że użytkownicy mają odpowiedni poziom dostępu do odpowiednich dokumentów i zasobów z poziomu narzędzi innych firm (takich jak kanały Slack);

  • sprawdzenie i potwierdzenie, że dokumentacja Twojej organizacji jest kompletna, aktualna i dokładna.

Twoje dane i zasoby powiązane z AI Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki zasoby powiązane z AI wykorzystują Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje prompty (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • kontekst instancji odpowiadający promptowi, taki jak dane incydentów, dane alertów, dokumentacja w produktach Atlassian i połączone produkty innych firm, takie jak Dokumenty Google;
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane strumienia kliknięć i osób, z którymi współpracujesz;
  • dowolne opinie, które przekazujesz na temat tej funkcji, w tym wszelkie prompty lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanych opinii.

W stosunku do Twoich danych zasoby powiązane z AI stosują następujące środki:

  • Twoje prompty (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI;
    • nie są przechowywane przez OpenAI ani żadnego innego zewnętrznego dostawcę LLM;
    • nie są wykorzystywane do ulepszania rozwiązań OpenAI ani żadnego innego zewnętrznego dostawcy LLM;
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • OpenAI jest podwykonawcą przetwarzania znajdującym się na naszej stronie Podwykonawcy przetwarzania. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem wniosku.
  • Ta funkcja działa zgodnie z uprawnieniami dotyczącymi produktu. Przykładowo jeśli nie masz dostępu do określonej strony Confluence, nie znajdziesz tej strony na liście powiązanych zasobów. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedzi dla innych użytkowników Twojego produktu, uzgodnij z administratorem organizacji odpowiednie ustawienia uprawnień dostępu dla zespołu.
Jak sugestie SI w Jira Service Management wykorzystują Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Sugestie SI w Jira Service Management są oparte na dużych modelach językowych opracowanych przez OpenAI i innych modelach uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model był trenowany.

Przeczytaj więcej o możliwościach modeli OpenAI.

Przypadki użycia sugestii SI w Jira Service Management Copy link to heading Copied! Pokaż
  

Dzięki sugestiom SI w Jira Service Management Twój zespół może szybko przyspieszyć pracę, błyskawicznie gromadząc ważne informacje na temat wniosków o usługę i incydentów. Atlassian Intelligence pomaga Twojemu zespołowi:

  • W przypadku wniosków o usługę zrozumieć krótkie podsumowanie zgłoszenia, szczegóły dotyczące osoby zgłaszającej oraz listę sugerowanych kroków, które mogą pomóc agentom w rozwiązaniu zgłoszenia. Atlassian Intelligence sugeruje również, w jaki sposób zespół może aktualizować wnioski o usługę w oparciu o ten kontekst, np. zmieniając ich priorytet lub dodając osobę przypisaną.
  • W przypadku incydentów zrozumieć krótkie podsumowanie zgłoszenia i szczegóły dotyczące prawdopodobnej głównej przyczyny. Atlassian Intelligence sugeruje również, w jaki sposób zespół może aktualizować incydenty w oparciu o ten kontekst, na przykład rozpoznając incydent jako poważny, dodając osoby reagujące lub usługi, których dotyczy incydent, zmieniając ich istotność lub priorytet bądź analizując problem poprzez utworzenie zgłoszenia problemu.

Sugestie SI w Jira Service Management mogą również zalecać agentom eskalację wniosku lub incydentu, gdy odpowiednia umowa SLA ma zostać naruszona. W przypadku wniosków o usługę funkcja ta może również sugerować agentom eskalację tego wniosku, gdy modele używane do obsługi tych sugestii identyfikują, na podstawie tekstu komentarzy zgłaszającego, poczucie pilności lub gniewu w związku z tym wnioskiem.

Wierzymy, że sugestie SI w Jira Service Management najlepiej sprawdzają się w sytuacjach, w których:

  • Twoje projekty otrzymują wiele podobnych wniosków lub incydentów.
  • Twoja organizacja już rejestruje wnioski o usługę i incydenty w Jira Service Management z kompletnymi, dokładnymi i aktualnymi informacjami.
  • Profile użytkowników członków zespołu zostały wypełnione informacjami o ich rolach, działach i lokalizacjach.
  • Twoi klienci i członkowie zespołu prowadzą pisemny rejestr wszystkich rozmów, dodając komentarze na temat zgłoszeń.
  • Twoje projekty obejmują typy wniosków o usługę lub incydentów często spotykanych przez Twoje zespoły.
Uwagi dotyczące korzystania z sugestii SI w Jira Service Management Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych w sugestiach SI w Jira Service Management, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Na przykład otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca.

Z naszych doświadczeń wynika, że sugestie SI w Jira Service Management są mniej przydatne w scenariuszach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • Potrzebujesz sugestii dotyczących wniosku o usługę lub incydentu w okolicznościach, w których Twój projekt nie zawiera żadnych podobnych wniosków lub incydentów, z których można się uczyć.
  • Potrzebujesz informacji, do których nie masz dostępu w ramach swojego projektu.
  • Potrzebujesz sugestii dla osób przypisanych, których informacje o ich rolach, działach i lokalizacjach nie zostały dodane do ich profilu.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Poproszenie członków zespołu o upewnienie się, że dane ich profilu (i przeszłe incydenty / wnioski o usługę) są w pełni wypełnione przed użyciem sugestii SI w Jira Service Management.
Twoje dane i sugestie SI w Jira Service Management Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki sugestie SI w Jira Service Management wykorzystują Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania.

Przetwarzamy:

  • Polecenia (dane wejściowe) a odpowiedzi (wyniki)
  • Kontekst instancji istotny dla funkcji, taki jak podobne wnioski lub incydenty, lista osób przypisanych lub członków zespołu, zasoby i dane w zgłoszeniu, takie jak wartości pól, komentarze itp.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Funkcja sugestii SI stosuje poniższe środki w stosunku do Twoich danych.

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI.
    • nie są przechowywane przez OpenAI;
    • Nie są używane do ulepszania systemu OpenAI.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • OpenAI jest podwykonawcą przetwarzania znajdującym się na naszej liście podwykonawców przetwarzania. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Ta funkcja działa zgodnie z uprawnieniami w instancji. Przykładowo, jeśli nie masz dostępu do określonego wniosku o usługę lub incydentu, Atlassian Intelligence nie uwzględni tych wniosków lub incydentów podczas generowania sugestii. Jeśli nie chcesz, aby Twoje treści były dostępne dla innych użytkowników w Twoim projekcie lub Twojej witrynie, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.
Jak automatyzacja wykorzystuje Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Automatyzacja z wykorzystaniem Atlassian Intelligence opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open source (w tym serii Llama, Phi i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic.

Atlassian Intelligence wykorzystuje te modele do analizy danych wprowadzanych w języku naturalnym i generowania dla użytkownika reguły automatyzacji w Jirze i Confluence.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony.

Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi.

Przypadki użycia automatyzacji przy użyciu Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Tworzenie reguł to podstawa codziennej pracy związanej z automatyzacją. Chcemy je dodatkowo ułatwić, dodając Atlassian Intelligence do kreatora reguł automatyzacji w Jirze i Confluence. Teraz możesz łatwo tworzyć reguły automatyzacji, po prostu opisując, co chcesz zautomatyzować — Atlassian Intelligence zajmie się wszystkim, co najtrudniejsze w tworzeniu reguł. Dowiedz się więcej na temat korzystania z narzędzia Atlassian Intelligence w Jirze i Confluence.

Naszym zdaniem wykorzystywanie automatyzacji przy użyciu Atlassian Intelligence w przypadku Jiry i Confluence sprawdza się najlepiej w sytuacjach, gdy nie wiesz, jak zacząć, lub chcesz przyspieszyć proces tworzenia reguł.

Nie wiesz, jak najlepiej zabrać się za utworzenie reguły automatyzacji?

Reguły automatyzacji są tworzone przez kombinację różnych typów komponentów: wyzwalaczy, czynności, warunków i gałęzi. Wyobraź sobie, że komponenty to podstawowe części składowe reguły. Aby utworzenie reguły za pomocą Atlassian Intelligence się powiodło, musi ona zawierać przynajmniej wyzwalacz i czynność. Przykład:

W Jirze:

Co poniedziałek wyszukuj wszystkie zadania z terminem przypadającym w ciągu kolejnych 7 dni i wysyłaj przypisanej osobie wiadomość e-mail z przypomnieniem.

Kiedy zgłoszenie przejdzie do testowania, przypisz je Janowi Kowalskiemu.

W Confluence:

  • Co poniedziałek wyszukuj wszystkie zadania z terminem przypadającym w ciągu kolejnych 7 dni i wysyłaj przypisanej osobie wiadomość e-mail z przypomnieniem.
  • Co 6 miesięcy archiwizuj wszystkie strony, które nie zostały zaktualizowane w tym czasie. Po zakończeniu archiwizacji poinformuj o tym autora strony w wiadomości e-mail.
  • Po opublikowaniu strony ze specyfikacją produktu w tytule utwórz zgłoszenie Jira, aby przejrzeć stronę z łączem do strony.

Ponadto aby tworzenie reguły powiodło się, wszystkie jej komponenty muszą być obsługiwane przez automatyzację przy użyciu Atlassian Intelligence. Oznacza to, że wszelkie wyzwalacze, czynności, warunki lub gałęzie w regule muszą być zgodne z automatyzacją w Jirze i/lub Confluence.

Co warto wziąć pod uwagę w przypadku automatyzacji przy użyciu Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do automatyzacji przy użyciu Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Z naszych doświadczeń wynika, że automatyzacja przy użyciu Atlassian Intelligence jest mniej przydatna w następujących sytuacjach:

  • Musisz udzielić automatyzacji przy użyciu Atlassian Intelligence dostępu do informacji, które nie są łatwo dostępne (na przykład ze stron lub projektów objętych ograniczeniami), aby poprawnie odpowiedzieć na Twój wniosek.
  • wykonujesz zadania jednorazowe;
  • wyszukujesz informacje z poziomu swojej bazy wiedzy.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Automatyzacja przy użyciu Atlassian Intelligence działa tylko z istniejącym zestawem dostępnych komponentów automatyzacji w Jirze i Confluence.

Warto też pamiętać, aby polecenia dla Atlassian Intelligence formułować jak najkonkretniej, czyli zgodnie z powyższym opisem.

Twoje dane a automatyzacja przy użyciu Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki automatyzacja za pomocą Atlassian Intelligence wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje prompty (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiadający promptowi, na przykład projekt Jira lub strona Confluence.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane strumienia kliknięć i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie prompty lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Jeśli chodzi o Twoje dane w kontekście użycia Atlassian Intelligence do automatyzacji Confluence:

  • Twoje prompty (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI, Google lub Anthropic w usłudze AWS Bedrock.
    • Nie są przechowywane przez żadnego dostawcę LLM.
    • Nie są używane do ulepszania modeli LLM.
    • są wykorzystywane tylko do obsługi Twojego środowiska.

Wszyscy zewnętrzni dostawcy LLM są podrzędnymi podmiotami przetwarzającymi i są wymienieni na naszej stronie Podrzędne podmioty przetwarzające. Nie wykorzystują oni Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.

Ta funkcja działa zgodnie z uprawnieniami w instancji. Przykładowo jeśli nie masz dostępu do określonego projektu lub strony, otrzymana odpowiedź nie będzie zawierać sugerowanej treści z tej strony. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.

Grupowanie alertów

Jak grupowanie alertów wykorzystuje Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Grupowanie alertów przez Atlassian Intelligence jest obsługiwane przez duże modele językowe opracowane przez OpenAI i Google. Modele te obejmują algorytm przeznaczony do rozpoznawania wzorców w danych alertów oraz serię modeli GPT firmy OpenAI i Gemini firmy Google.

Atlassian Intelligence wykorzystuje te modele uczenia maszynowego do analizowania i generowania grup alertów oraz przedstawiania powiązanych sugestii (wcześniejsze grupy alertów i wcześniejsze osoby reagujące na alerty) w naszych produktach w oparciu o podobieństwo zawartości alertów lub użytych tagów. Następnie Atlassian Intelligence wykorzystuje duże modele językowe do analizowania i generowania opisów i treści w języku naturalnym dla tych grup w naszych produktach.

Te duże modele językowe generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony.

Dowiedz się więcej o możliwościach modeli OpenAI i modeli Google.

Przypadki użycia do grupowania alertów Copy link to heading Copied! Pokaż
  

Grupowanie alertów wykorzystuje Atlassian Intelligence do rozpoznawania i grupowania podobnych alertów. Pomaga również rozpoznawać i rekomendować wcześniejsze podobne grupy alertów i wcześniejsze osoby reagujące na alerty (lub zespoły osób reagujących) w oparciu o semantyczne podobieństwo użytych treści alertów lub tagów.

Jeśli chcesz eskalować grupę alertów do incydentu, grupowanie alertów spowoduje również wstępne wypełnienie wszystkich informacji kontekstowych, które możesz przeglądać w ramach procesu tworzenia incydentu.

Naszym zdaniem grupowanie alertów najlepiej sprawdza się w scenariuszach, w których:

  • Organizacja często napotyka wzorce licznych podobnych lub zduplikowanych alertów, niezależnie od tego, czy występują w krótkim okresie, czy w dłuższej perspektywie czasowej.
  • Organizacja spójnie kategoryzuje alerty za pomocą tagów.
  • Zespół często dochodzi do wniosku, że podobne lub zduplikowane alerty powinny być eskalowane do incydentów.
Co należy wziąć pod uwagę podczas korzystania z grupowania alertów Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych w grupowaniu alertów, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Z kolei grupy alertów, które wyświetlasz, mogą nie odzwierciedlać dokładnie semantycznego podobieństwa ich tagów.

Z naszych doświadczeń wynika, że grupowanie alertów jest mniej użyteczne w scenariuszach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • Funkcja grupowania alertów musi mieć dostęp do informacji, które nie są łatwo dostępne, a są niezbędne do odpowiedniego grupowania alertów. Grupowanie alertów działa w granicach skonfigurowanych ról i uprawnień zespołu, dzięki czemu będziesz mieć dostęp tylko do grup i analiz dotyczących alertów, do których masz uprawnienia do wyświetlania.
  • Tagi alertów używane przez Twój zespół nie są spójne ani dobrze utrzymane. Ponieważ grupowanie alertów opiera się na grupowaniu według semantycznego podobieństwa tytułów i tagów alertów, jakość generowanych grup alertów zależy od spójności i uporządkowania tagów alertów używanych przez zespół i organizację.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Warto też zadbać, aby zespół stosował spójne praktyki dotyczące używania tagów alertów.

Twoje dane i grupowanie alertów Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki grupowanie alertów wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni dla polecenia, taki jak dane alertów (tytuły alertów, tagi alertów, priorytet, zespoły reagujące, opis).
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Przetwarzamy dane alertów, aby przeszkolić wersję modelu uczenia maszynowego w celu rozpoznawania wzorców specyficznych dla Twoich alertów. Ta wersja służy tylko do obsługi Twojego środowiska:

  • Przechowujemy rozpoznane wzorce, aby umożliwić Ci zapoznanie się z analizami.
  • Nie wykorzystujemy Twoich danych dotyczących alertów do szkolenia LLM.

Podczas grupowania alertów wobec Twoich danych stosowane są wymienione poniżej środki:

  • Twoje dane wejściowe i wyjściowe:
    • Nie są dostępne dla innych klientów.
    • nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI i Google;

    • Nie są przechowywane przez żadnego dostawcę LLM.

    • Nie są używane do ulepszania modeli LLM.

    • są wykorzystywane tylko do obsługi Twojego środowiska.

  • Wszyscy zewnętrzni dostawcy LLM są podwykonawcami przetwarzania znajdującymi się na naszej stronie podwykonawców przetwarzania. Nie wykorzystują oni Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Ta funkcja jest zgodna z uprawnieniami Twojej witryny. Przykładowo jeśli Atlassian Intelligence grupuje 50 alertów na podstawie ich tagów i podobieństwa semantycznego, a Ty masz uprawnienia do wyświetlenia tylko 30 alertów, zobaczysz tylko te 30 alertów w widoku szczegółów grupy. Jeśli nie chcesz, aby Twoje alerty były dostępne w odpowiedziach dla innych użytkowników w Twojej witrynie, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji/witryny.
Jak Atlassian Intelligence podsumowuje strony i blogi w Confluence Copy link to heading Copied! Pokaż
  

Podsumowanie stron i blogów za pomocą Atlassian Intelligence jest oparte na dużych modelach językowych opracowanych przez OpenAI i Google. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI i serię modeli Gemini firmy Google.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Dowiedz się więcej o możliwościach modeli OpenAI i modeli Google.

Przypadki użycia krótkiego podsumowania Confluence Copy link to heading Copied! Pokaż
  

Oszczędzaj czas i uzyskuj szczegóły potrzebne do szybszego wykonywania pracy, generując krótkie podsumowania stron lub blogów Confluence za pomocą Atlassian Intelligence. Dowiedz się więcej na temat korzystania z narzędzia Atlassian Intelligence w Confluence.

Naszym zdaniem podsumowywanie stron i blogów za pomocą Atlassian Intelligence najlepiej sprawdza się wówczas, gdy:

  • istnieje strona z obszernym tekstem, której przeczytanie zajmuje 5 minut lub więcej;
  • istnieje wiele treści pisanych, z ograniczoną grafiką lub innym formatowaniem, takim jak rozszerzenia na stronie.
Co warto wziąć pod uwagę przy podsumowywaniu stron i blogów za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do podsumowywania stron i blogów za pomocą Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Na przykład otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca.

Chociaż nadal pracujemy nad lepszą obsługą makr i tabel oraz rozszerzamy podsumowania, odkryliśmy, że podsumowywanie stron i blogów za pomocą Atlassian Intelligence jest mniej przydatne w scenariuszach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • potrzebujesz podsumowania bardzo krótkiej strony Confluence, na której nie ma wystarczającej ilości treści;
  • potrzebujesz podsumowania strony Confluence, na której większość treści znajduje się w tabelach lub rozszerzeniach;
  • potrzebujesz podsumowania strony Confluence, na której większość treści znajduje się w makrach.

Zachęcamy Cię do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Proszenie Atlassian Intelligence o podsumowywanie stron, o których wiesz, że zawierają dużo tekstu.
Twoje dane a podsumowywanie stron i blogów za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane do automatyzacji Confluence. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);

  • Kontekst instancji odpowiedni do podpowiedzi, np. treść ze strony Confluence, którą chcesz podsumować.

  • Dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz

  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Jeśli chodzi o Twoje dane, podczas podsumowywania stron i blogów za pomocą Atlassian Intelligence:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI i Google;
    • Nie są przechowywane przez żadnego dostawcę LLM.

    • Nie są używane do ulepszania modeli LLM.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • Wszyscy zewnętrzni dostawcy LLM są podwykonawcami przetwarzania znajdującymi się na naszej stronie podwykonawców przetwarzania. Nie wykorzystują oni Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Ta funkcja działa zgodnie z uprawnieniami w instancji. Przykładowo jeśli nie masz dostępu do strony Confluence, nie będziesz widzieć tej funkcji ani nie będziesz w stanie podsumować strony za pomocą Atlassian Intelligence. Jeśli nie chcesz, aby Twoje treści były dostępne dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.

Definiowanie terminów za pomocą Atlassian Intelligence

Jak Atlassian Intelligence definiuje terminy Copy link to heading Copied! Pokaż
  

Definiowanie terminów z wykorzystaniem Atlassian Intelligence w Confluence i Jirze opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open source (w tym serii Llama, Phi i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania odpowiedzi w języku naturalnym w Confluence i Jirze.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi.

Przypadki użycia funkcji definiowania terminów za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Jedną z najtrudniejszych rzeczy związanych z korzystaniem z treści w Confluence i Jira może być zdobycie kontekstu potrzebnego do zrozumienia tego, co czytasz. Skróty, akronimy, nieznane terminy oraz nazwy specyficzne dla zespołu lub projektu mogą wymagać czasochłonnego wyszukiwania potrzebnych informacji.

Funkcja definiowania terminów za pomocą Atlassian Intelligence pozwala uzyskać definicję terminów specyficznych dla danej firmy (np. akronimów, nazw projektów, systemów lub zespołów) na stronie w Confluence lub w opisie zgłoszenia w Jirze. Dzięki temu użytkownik otrzymuje niezbędne informacje wtedy, kiedy ich potrzebuje, a wszystko to pomaga zespołom sprawniej współpracować.

Atlassian Intelligence pozwala Ci zaoszczędzić czas, ponieważ definiuj te rzeczy za Ciebie, dzięki czemu nie musisz przerywać lektury.

Jeśli napotkasz definicję, którą uważasz za niedokładną, możesz edytować lub dodać nową definicję, a następnie ustawić widoczność dla tej strony lub tego zgłoszenia, całej przestrzeni lub projektu bądź uzyskać dostęp do całej organizacji.

Naszym zdaniem definiowanie terminów za pomocą Atlassian Intelligence w Confluence i Jirze najlepiej sprawdza się w sytuacjach, gdy:

  • Firma ma wiele stron w swojej instancji Confluence, które wspominają, opisują lub wyjaśniają, jaki jest określony termin, do którego może odwołać się Atlassian Intelligence.
Co warto wziąć pod uwagę w przypadku definiowania terminów za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do definiowania odpowiedzi za pomocą Atlassian Intelligence, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Ustaliliśmy, że użycie Atlassian Intelligence do definiowania terminów w Confluence jest mniej przydatne w sytuacjach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • nie masz wystarczającego kontekstu dotyczącego terminu w tej instancji Confluence (przykładowo jeśli nie ma stron wymieniających konkretny termin, definicja tego terminu nie zostanie wygenerowana w sposób poprawny);
  • Definicja wymaga dostępu do treści Confluence, do których przeglądania nie masz uprawnień
  • próbujesz zdefiniować kilka terminów zamiast jednego terminu naraz.

Ponadto w Jira zauważyliśmy, że ponieważ definiowanie terminów za pomocą Atlassian Intelligence opiera się na wyszukiwaniu w Confluence, funkcja ta będzie działać w Jira tylko wtedy, gdy masz uprawnienia do wyświetlania instancji Confluence w tej samej witrynie co instancja Jira.

Może się również zdarzyć, że definiowanie terminów za pomocą Atlassian Intelligence nie będzie działać zgodnie z oczekiwaniami w przestrzeniach Confluence lub instancjach Jira, które zawierają treści napisane w wielu językach.

Twoje dane i definiowanie terminów przy użyciu Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas definiowania terminów. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do podpowiedzi, np. termin, który chcesz zdefiniować.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Jeśli chodzi o Twoje dane, to podczas definiowania terminów za pomocą Atlassian Intelligence stosowane są następujące środki:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI, Google lub Anthropic w usłudze AWS Bedrock.

    • Nie są przechowywane przez żadnego dostawcę LLM.
    • Nie są używane do ulepszania modeli LLM.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • Wszyscy zewnętrzni dostawcy LLM są podwykonawcami przetwarzania znajdującymi się na naszej stronie podwykonawców przetwarzania. Nie wykorzystują oni Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Ta funkcja działa zgodnie z aktualnymi uprawnieniami dostępu użytkownika, co oznacza, że użytkownicy nie otrzymają definicji na podstawie treści, do których nie mają dostępu. Zamiast tego funkcja ściąga treści i definicje tylko ze stron i projektów, do których wyświetlania ma uprawnienia użytkownik w instancji. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.
  • Jeśli użytkownik ręcznie edytuje lub aktualizuje definicję, jest ona przechowywana przez 1 rok.

Generatywna SI w edytorze

Jak działa Atlassian Intelligence w edytorach Copy link to heading Copied! Pokaż
  

Atlassian Intelligence w edytorach opiera się na dużych modelach językowych opracowanych przez OpenAI i Google. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI i serię modeli Gemini firmy Google.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Dowiedz się więcej o możliwościach modeli OpenAI i modeli Google.

Przypadki użycia generatywnej funkcji SI w edytorze Copy link to heading Copied! Pokaż
  

Atlassian Intelligence pomaga prowadzić skuteczną komunikację we wszystkich zespołach w organizacji w celu poprawy wydajności oraz usprawnienia podejmowania decyzji i procesów.

Naszym zdaniem wykorzystanie Atlassian Intelligence w edytorach najlepiej sprawdza się w następujących scenariuszach:

  • Przekształcanie istniejących treści na potrzeby różnych odbiorców. Atlassian Intelligence pomaga w zmianie rejestru językowego, poprawia styl i ułatwia zrozumienie informacji technicznych innym zespołom. Najlepiej sprawdza się w przypadku zespołów, które chcą pisać bardziej profesjonalnie i zwięźle.
  • Podsumowanie istniejących treści. Dzięki Atlassian Intelligence można przekształcać luźne notatki w przydatną dokumentacja strategiczną, artykuły z bazy wiedzy, plany kampanii i podobne materiały. Pozwala też na analizę istniejących informacji w celu zdefiniowania planów działań i czynności do wykonania. Najlepiej sprawdza się w przypadku stron z dużą ilością tekstu, z których można czerpać dużo kontekstu.
  • Generowanie nowych treści. Atlassian Intelligence pomaga tworzyć nowe treści, takie jak strony strategii, przeglądy projektów, uwagi do wydania lub historyjki użytkowników. Najlepiej jeśli zespoły używają jasnych, konkretnych podpowiedzi, z myślą o określonym celu.
Uwagi dotyczące wykorzystania Atlassian Intelligence w edytorach Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych przez Atlassian Intelligence w edytorach, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca.

Z naszych doświadczeń wynika, że wykorzystanie Atlassian Intelligence w edytorach jest mniej przydatne w sytuacjach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • w celu uzyskania poprawnej odpowiedzi potrzebujesz dostępu do informacji, które nie są łatwo dostępne (przykładowo znajdują się w Twojej powiązanej bazie wiedzy);
  • chcesz wygenerować treści w formacie innym niż standardowy Markdown (na przykład w celu wygenerowania panelu informacyjnego od zera);
  • chcesz odwołać się do informacji, które nie znajdują się jeszcze obecne w edytowanym dokumencie (przykładowo treści znajdujące się w innym dokumencie lub produkcie).
  • chcesz wygenerować i przekształcić treści w językach innych niż angielski.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Jak najbardziej konkretne formułowanie zapytań do Atlassian Intelligence.
  • podzielenie złożonych wniosków na mniejsze zadania, którymi łatwiej zarządzać;
  • włączenie odpowiednich słów kluczowych, aby poprawić dokładność generowanych treści;
  • użycie poprawnej gramatyki i interpunkcji we wprowadzanym tekście;
  • korekta, weryfikacja i edycja danych wyjściowych wygenerowanych przez asystenta pisania SI w celu uzyskania dokładności i przejrzystości;
  • eksperymentowanie z różnymi podpowiedziami lub odmianami tekstu wejściowego w celu zbadania różnych pomysłów;
  • współpraca z innymi osobami w celu zebrania opinii i poprawy jakości danych wyjściowych.
Twoje dane i Atlassian Intelligence w edytorach Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane w edytorach. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do podpowiedzi, np. produkt, z którego uruchomiono narzędzie Atlassian Intelligence.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Jeśli chodzi o Twoje dane, to w kontekście używania Atlassian Intelligence w edytorach stosuje się następujące środki:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI i Google;

    • Nie są przechowywane przez żadnego dostawcę LLM.
    • Nie są używane do ulepszania modeli LLM.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • Wszyscy zewnętrzni dostawcy LLM są podwykonawcami przetwarzania znajdującymi się na naszej stronie podwykonawców przetwarzania. Nie wykorzystują oni Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Ta funkcja działa zgodnie z uprawnieniami w instancji. Na przykład jeśli nie masz dostępu do określonej strony Confluence, otrzymana odpowiedź nie będzie zawierać sugerowanej treści z tej strony. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.
W jaki sposób narzędzie do zmiany formatu zgłoszeń korzysta z Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Narzędzie do zmiany formatu zgłoszeń jest obsługiwane przez duże modele językowe opracowane przez OpenAI, w tym serię modeli GPT OpenAI.

Atlassian Intelligence wykorzystuje ten model do analizy i generowania języka naturalnego w Jirze.

Te modele generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model był trenowany.

Przeczytaj więcej o możliwościach modeli OpenAI.

Przypadki użycia narzędzia do zmiany formatu zgłoszeń Copy link to heading Copied! Pokaż
  

Narzędzie do zmiany formatu zgłoszeń pomaga poprawić przejrzystość opisów zgłoszeń w Jirze poprzez ponowne formatowanie ich przy użyciu szablonu opracowanego przez firmę Atlassian. Ten szablon obejmuje typy informacji, których zwykle można spodziewać się w opisie zgłoszenia Jira, takie jak historyjka użytkownika, kontekst pracy i kryteria akceptacji.

Uważamy, że narzędzie zmiany formatu zgłoszeń działa najlepiej w scenariuszach, w których opisy zgłoszeń już zawierają przydatne informacje (takie jak kryteria akceptacji lub łącza do źródeł), ale informacje te nie są sformatowane przy użyciu przejrzystej lub spójnej struktury.

Uwagi dotyczące korzystania z narzędzia do zmiany formatu zgłoszeń Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi narzędzia do zmiany formatu zgłoszeń, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo opis po zmianie formatowania może nie odzwierciedlać dokładnie treści, na której został oparty, lub zawierać szczegóły, która brzmią rozsądnie, jednak są nieprawdziwe lub niekompletne.

Z naszych doświadczeń wynika, że narzędzie do zmiany formatu zgłoszeń jest mniej użyteczne w scenariuszach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • Opisy zgłoszeń nie zawierają zbyt wielu informacji, ponieważ istnieje większe prawdopodobieństwo, że modele obsługujące narzędzie do zmiany formatu zgłoszeń mogą dodać informacje, które nie były zawarte w pierwotnym opisie.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Dobrym pomysłem może być przejrzenie i zweryfikowanie, czy opisy zgłoszeń zawierają wszystkie istotne informacje, zanim zaczniesz używać narzędzia do zmiany formatu zgłoszeń.

Twoje dane i narzędzie do zmiany formatu zgłoszeń Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki narzędzie do zmiany formatu zgłoszeń wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do polecenia, taki jak opis i podsumowanie zgłoszenia Jira.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Podczas korzystania z narzędzia do zmiany formatu zgłoszeń wobec Twoich danych stosowane są wymienione poniżej środki:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • nie są dostępne dla innych klientów;
    • nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI;
    • nie są przechowywane przez OpenAI;
    • nie są używane do ulepszania modeli OpenAI.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • OpenAI jest podwykonawcą przetwarzania znajdującym się na naszej liście podwykonawców przetwarzania. Nie wykorzystują oni Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Ta funkcja wykorzystuje tylko informacje dostępne w zgłoszeniu Jira i jest wywoływana w zgłoszeniu Jira. Dlatego może być wywoływana tylko przez użytkownika, który ma uprawnienia do przeglądania zgłoszenia i nie będzie miał dostępu do żadnych innych informacji.

Podsumowanie szczegółów zgłoszenia w Jira Service Management

Jak Atlassian Intelligence podsumowuje szczegóły zgłoszenia w Jira Service Management Copy link to heading Copied! Pokaż
  

Podsumowanie szczegółów zgłoszenia za pomocą Atlassian Intelligence jest oparte na dużych modelach językowych opracowanych przez OpenAI i Google. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI i serię modeli Gemini firmy Google.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Dowiedz się więcej o możliwościach modeli OpenAI i modeli Google.

Przypadki użycia dotyczące podsumowania szczegółów zgłoszenia w Jira Service Management Copy link to heading Copied! Pokaż
  

Zamiast czytać długie opisy i liczne komentarze na temat zgłoszenia Jira Service Management możesz użyć Atlassian Intelligence w celu szybkiego wygenerowania podsumowania tych informacji. Dzięki temu agenci mogą szybko zapoznać się z kontekstem zgłoszenia i wszelkimi postępami, co pozwala im podejmować niezwłoczne działania i udzielać pomocy.

Naszym zdaniem podsumowanie szczegółów zgłoszenia za pomocą Atlassian Intelligence najlepiej sprawdza się w następujących przypadkach:

  • Zgłoszenia z opisem i komentarzami w języku angielskim.
  • Zgłoszenia z dużą liczbą komentarzy bądź długimi komentarzami lub opisami.
Co warto wziąć pod uwagę w przypadku podsumowania szczegółów zgłoszenia za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do podsumowywania szczegółów zgłoszenia za pomocą Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Z naszych doświadczeń wynika, że podsumowanie szczegółów zgłoszenia przy użyciu Atlassian Intelligence jest mniej przydatne w następujących sytuacjach:

  • Użytkownik posługuje się językiem innym niż angielski
  • Zgłoszenie nie ma historii lub szczegółów

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Twoje dane i podsumowanie szczegółów zgłoszenia za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas podsumowywania szczegółów zgłoszenia. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do polecenia zawiera szczegółowe informacje o zgłoszeniu Jira Service Management, np. opis zgłoszenia, komentarze i użytkownicy objęci zgłoszeniem.
  • Dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Podczas podsumowywania szczegółów zgłoszenia za pomocą Atlassian Intelligence w odniesieniu do Twoich danych stosowane są następujące środki:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI, Google lub Anthropic w usłudze AWS Bedrock.

    • Nie są przechowywane przez żadnego dostawcę LLM.
    • Nie są używane do ulepszania modeli LLM.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • Wszyscy zewnętrzni dostawcy LLM są podrzędnymi podmiotami przetwarzającymi i są wymienieni na naszej stronie Podrzędne podmioty przetwarzające. Nie wykorzystują oni Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Ta funkcja działa zgodnie z uprawnieniami w instancji. Tylko agenci i administratorzy projektu widzą przycisk podsumowania.

Generatywna SI w edytorze

Jak Atlassian Intelligence podsumowuje inteligentne łącza Copy link to heading Copied! Pokaż
  

Podsumowywanie inteligentnych łączy wykorzystujące Atlassian Intelligence (AI) opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open source (w tym serii Llama, Phi i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi.

Przypadki użycia podsumowywania inteligentnych łączy Copy link to heading Copied! Pokaż
  

Po najechaniu kursorem na inteligentne łącze z Jira, Confluence i Dokumentów Google Atlassian Intelligence może pomóc Ci w podsumowaniu treści, co pozwala określić znaczenie i wartość łącza oraz zdecydować o następnym kroku. Zmniejsza to potrzebę opuszczenia bieżącej strony i zmiany kontekstu.

Uważamy, że podsumowywanie inteligentnych łączy za pomocą SI działa najlepiej w scenariuszach, w których:

  • Przeglądasz stronę lub zgłoszenie z co najmniej jednym inteligentnym łączem.
  • Przeglądasz stronę lub zgłoszenie z co najmniej jednym inteligentnym łączem zawierającym dużo informacji lub skomplikowaną treść. Zapoznanie się z tym materiałem może zająć dużo czasu bądź odciągnąć Twoją uwagę od głównej treści, która Cię interesowała.
Co warto uwzględnić przy podsumowywaniu inteligentnych łączy za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych przy podsumowywaniu inteligentnych łączy dzięki SI, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Otrzymane podsumowania mogą na przykład nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Odkryliśmy, że podsumowywanie inteligentnych łączy za pomocą SI jest mniej przydatne w scenariuszach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • musisz podsumować treści, które są niezwykle krótkie;
  • Musisz podsumować wszystkie metadane i treść w jakimś łączu. Jeżeli na przykład chcesz zrozumieć wszystkie wartości pól w zgłoszeniu Jira, a także jego opis i treść komentarza.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Twoje dane a podsumowywanie inteligentnych łączy za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas podsumowywania szczegółów zgłoszenia. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • kontekst instancji odpowiedni do polecenia, np. treść łącza, które chcesz podsumować;
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • informację zwrotną, którą chcesz przekazać na temat tej funkcji, w tym wszelkie odpowiedzi udostępniane przez Ciebie w ramach dostarczanej informacji zwrotnej.

Jeśli chodzi o Twoje dane, podczas podsumowywania inteligentnych łączy za pomocą SI stosuje się wymienione poniżej środki.

  • Twoje podsumowania:
    • Nie są dostępne dla innych klientów.
    • Nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI, Google lub Anthropic w usłudze AWS Bedrock.

    • Nie są przechowywane przez żadnego dostawcę LLM.
    • Nie są używane do ulepszania modeli LLM.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • Wszyscy zewnętrzni dostawcy LLM są podrzędnymi podmiotami przetwarzającymi i są wymienieni na naszej stronie Podrzędne podmioty przetwarzające. Nie wykorzystują oni Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Ta funkcja działa zgodnie z uprawnieniami w instancji. Przykładowo w przypadku braku dostępu do strony lub zgłoszenia w Jira, Confluence lub Google nie można podsumować treści z tego źródła. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.

Odpowiedzi Atlassian Intelligence w Jira Service Management

Jak wirtualny agent obsługi Jira Service Management wykorzystuje Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Wirtualny agent obsługi Jira Service Management jest obsługiwany przez duże modele językowe opracowane przez OpenAI i Google, a także duże modele językowe typu open source (w tym seria Llama).

Wirtualny agent obsługi wykorzystuje te modele w następujący sposób:

  • Intencje: każda intencja reprezentuje konkretne problemy, pytania lub wnioski klientów, na które Twój wirtualny agent obsługi może pomóc odpowiedzieć. Intencje są szkolone przy użyciu modelu uczenia maszynowego dostosowanego do Twojej organizacji, w oparciu o zestaw danych szkoleniowych (opisany bardziej szczegółowo poniżej, w sekcji „Twoje dane i wirtualny agent obsługi”). Model ten służy do zrozumienia pytań klientów w kontekście Twojej organizacji. Dowiedz się więcej o intencjach.
  • Odpowiedzi Atlassian Intelligence wykorzystują generatywną sztuczną inteligencję do przeszukiwania powiązanych przestrzeni bazy wiedzy Confluence, a następnie utworzenia podsumowania tych informacji w odpowiedzi na pytania klientów. Odpowiedzi Atlassian Intelligence opierają się na dużych modelach językowych opracowanych przez OpenAI oraz innych modelach uczenia maszynowego. Przeczytaj więcej o odpowiedziach Atlassian Intelligence.
  • Szablony zamiarów „Na podstawie danych” są generowane na podstawie zgłoszeń z Twojego projektu. Używamy uczenia maszynowego do grupowania najczęstszych tematów, sugerowania zamiaru dla każdej grupy, a następnie generowania tytułów, opisów i fraz szkoleniowych dla każdego sugerowanego zamiaru. Szablony zamiarów „Na podstawie danych” są dostarczane z wykorzystaniem kombinacji modeli uczenia maszynowego, w tym dużych modeli językowych. Przeczytaj więcej o szablonach zamiarów.

Sposób działania dużych modeli językowych: Duże modele językowe generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model był trenowany.

Duże modele językowe wykorzystywane w przypadku wirtualnego agenta obsługi obejmują serię modeli GPT firmy OpenAI i serię modeli Gemini firmy Google.

Dowiedz się więcej o możliwościach modeli OpenAI i modeli Google. Aby dowiedzieć się więcej o modelach językowych typu open source, zapoznaj się z informacjami na temat serii Llama.

Przypadki użycia wirtualnego agenta obsługi Jira Service Management Copy link to heading Copied! Pokaż
  

Wirtualny agent obsługi pomaga zespołom zautomatyzować interakcje ze wsparciem 1. poziomu, wykorzystując konwersacyjny silnik Atlassian Intelligence, który analizuje oraz rozpoznaje zamiary, kontekst i uprawnienia w celu spersonalizowania interakcji.

Korzystając z Atlassian Intelligence, wirtualny agent obsługi pomaga zespołom skalować ich centra obsługi i spełniać oczekiwania klientów dzięki trzem kluczowym funkcjom:

  • Zamiary, które są tworzone przez administratora projektu i służą do przedstawienia konkretnego problemu, pytania lub wniosku klientów, w którego rozwiązaniu może pomóc wirtualny agent obsługi.
  • Odpowiedzi Atlassian Intelligence, które wykorzystują generatywną sztuczną inteligencję do przeszukiwania powiązanych przestrzeni bazy wiedzy i przygotowywania na ich podstawie odpowiedzi na pytania klientów.
  • Szablony zamiarów „Na podstawie danych”, które są spersonalizowanymi sugestiami zamiarów generowanymi poprzez grupowanie zgłoszeń projektu Jira Service Management. Dzięki nim administratorzy projektu mogą jeszcze szybciej tworzyć zamiary.

Wirtualny agent obsługi jest dostępny w wielu kanałach, w tym w aplikacjach Slack oraz Microsoft Teams, portalu Jira Service Management i nie tylko. Przeczytaj więcej o kanałach dostępnych dla wirtualnego agenta obsługi.

Naszym zdaniem wirtualny agent obsługi najlepiej sprawdza się w scenariuszach, w których:

  • Twoje zespoły usługowe otrzymują dużą liczbę pytań na 1. poziomie.
  • Twoi agenci odpowiadają wielokrotnie na te same pytania.
  • Masz kompletną i aktualną powiązaną bazę wiedzy, z której wirtualny agent obsługi może korzystać w celu udzielania odpowiedzi na pytania klientów.
  • Twoje zespoły usługowe często otrzymują wnioski z wieloma możliwymi rozwiązaniami, w przypadku których można wykorzystać obie kluczowe funkcje wirtualnych agentów obsługi na poziomie projektu — zamiary i odpowiedzi Atlassian Intelligence:
    • Zamiary sprawdzają się najlepiej, gdy trzeba wykonać czynność w celu rozstrzygania wniosków klientów (na przykład utworzenie zgłoszenia do rozstrzygnięcia przez agenta) lub gdy potrzebna jest rozmowa z klientem w celu zebrania od niego informacji. Zamiary są również idealnym rozwiązaniem w scenariuszach, w których potrzebny jest stały, deterministyczny wynik dla określonych wniosków, ponieważ zamiary zapewniają większą kontrolę nad tym, jakie informacje są udostępniane klientom.
    • Odpowiedzi Atlassian Intelligence sprawdzają się najlepiej, gdy wnioski klientów mogą być rozwiązane poprzez udostępnienie informacji i instrukcji, bez konieczności angażowania agenta.
  • W przypadku szablonów „Na podstawie danych”:
    • Twój projekt zawiera co najmniej 50 zgłoszeń, dzięki czemu sugestie dotyczące szablonów zamiarów opierają się na wystarczającej ilości informacji, aby mogły być przydatne.
    • Wystąpiła ostatnio zmiana w zachowaniu klientów dotycząca na przykład zbliżającego się wydarzenia lub nawet awarii technicznej, ponieważ szablony zamiarów „Na podstawie danych” identyfikują i grupują niedawne, typowe zapytania klientów.
Uwagi dotyczące korzystania z odpowiedzi Atlassian Intelligence w Jira Service Management Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych w przypadku wirtualnego agenta obsługi, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca.

Z naszych doświadczeń wynika, że wirtualny agent obsługi jest mniej użyteczny w scenariuszach, w których:

  • Masz niewielką liczbę wniosków 1. poziomu od klientów.
  • Nie zostały wykorzystane wszystkie możliwości wirtualnego agenta obsługi. Przykładowo nie utworzono zamiarów (lub nie użyto szablonów zamiarów „Na podstawie danych”) lub nie włączono odpowiedzi Atlassian Intelligence.
  • W przypadku zamiarów:
    • Dodano frazy szkoleniowe, które są zbyt szerokie lub zróżnicowane pod względem znaczeniowym. Dopasowywanie intencji działa najlepiej, gdy intencje są określone.
    • Dodano frazy szkoleniowe, które nie odzwierciedlają dokładnie sposobu zadawania pytań przez klientów. Dopasowywanie ma charakter semantyczny i polega na wyszukiwaniu podobnego znaczenia między frazami szkoleniowymi a tym, o co pytają klienci.
    • Utworzono wiele zamiarów, które są zbyt podobne. Nakładające się tematy między zamiarami mogą wprowadzać w błąd wirtualnego agenta obsługi i prowadzić do zasugerowania niewłaściwego zamiaru.
  • W przypadku odpowiedzi Atlassian Intelligence:
    • Klienci potrzebują aktualnych i dokładnych informacji o ludziach, miejscach i faktach.
    • Klienci potrzebują, aby funkcja odpowiedzi Atlassian Intelligence miała dostęp do informacji, które nie są dla nich łatwo dostępne (np. znajdują się w powiązanej bazie wiedzy, do której nie mają dostępu), w celu znalezienia odpowiedzi na pytanie.
    • Twoja baza wiedzy jest nieaktualna lub niekompletna albo jej artykuły nie są wystarczająco szczegółowe, aby udzielić właściwej odpowiedzi na pytania.
  • W przypadku szablonów zamiarów „Na podstawie danych” dane dostępne w zgłoszeniach projektu Jira Service Management są niskiej jakości (lub masz mniej niż 50 zgłoszeń), więc nie można znaleźć żadnych istotnych grup.

Zachęcamy do zastanowienia się nad sytuacjami, w których możesz korzystać z Atlassian Intelligence, i sprawdzenia działania wirtualnego agenta obsługi przed włączeniem go dla klientów. Przeczytaj więcej o poprawie skuteczności wirtualnego agenta obsługi.

Inne kwestie warte przemyślenia:

  • Zachęcanie klientów do podawania jak najbardziej szczegółowych informacji, gdy proszą o pomoc wirtualnego agenta obsługi.
  • Bieżące przeglądanie i aktualizowanie powiązanej bazy wiedzy, aby upewnić się, że jest ona kompletna i aktualna. Dowiedz się, jak skonfigurować bazę wiedzy, aby poprawić jakość odpowiedzi Atlassian Intelligence.
  • Aktywne przeglądanie uprawnień i ograniczeń stosowanych do powiązanych przestrzeni bazy wiedzy, aby wirtualny agent obsługi miał dostęp do właściwych informacji.
Twoje dane i wirtualny agent obsługi Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu wykorzystania Twoich danych przez wirtualnego agenta obsługi Jira Service Management. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • kontekst z instancji odpowiedni dla polecenia, taki jak artykuł Confluence z powiązanej bazy wiedzy podsumowywany w odpowiedzi Atlassian Intelligence lub historyczne zgłoszenia Jira służące do wygenerowania sugerowanych zamiarów.

  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;

  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Wirtualny agent obsługi stosuje następujące środki w stosunku do Twoich danych:

  • W przypadku dopasowywania zamiarów w kanałach projektu Jira Service Management:
    • Zamiary (w tym szablony zamiarów „Na podstawie danych”) są trenowane z wykorzystaniem modelu uczenia maszynowego, który jest dostosowany do Twojej organizacji, w oparciu o dostarczony przez Ciebie zestaw danych szkoleniowych. Obejmuje to zamiary i frazy szkoleniowe utworzone przez administratora projektu lub zasugerowane przez nas w ramach standardowych szablonów zamiarów lub szablonów zamiarów „Na podstawie danych”.
    • Dane szkoleniowe i wytrenowany model uczenia maszynowego opracowany dla Twojej organizacji nie będą udostępniane innym klientom Atlassian.
    • Trenowanie odbywa się wyłącznie na poziomie projektu, co oznacza, że zamiary są trenowane na podstawie fraz szkoleniowych dostarczonych przez administratorów podczas procesu tworzenia zamiarów i administratorzy mają pełną kontrolę nad danymi szkoleniowymi. Dane nie są wykorzystywane w wielu projektach w ramach jednej witryny.
    • Te modele są przechowywane w witrynie Jira Service Management i są usuwane po usunięciu witryny.
  • W przypadku dopasowywania zamiarów w centrach pomocy Jira Service Management:
    • Tworzymy i przechowujemy wektory zgodnie z wymaganiami jurysdykcji danych.
    • Te modele są przechowywane w witrynie Jira Service Management i są usuwane po usunięciu witryny.
  • W przypadku odpowiedzi Atlassian Intelligence:
    • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
      • Nie są dostępne dla innych klientów.
      • nie są dostępne dla żadnego zewnętrznego dostawcy LLM innego niż OpenAI i Google;
      • Nie są przechowywane przez żadnego dostawcę LLM.
      • Nie są używane do ulepszania żadnych dużych modeli językowych.
      • są wykorzystywane tylko do obsługi Twojego środowiska.
    • Ta funkcja działa zgodnie z uprawnieniami i ograniczeniami zastosowanymi do powiązanych przestrzeni bazy wiedzy. Oznacza to, że wszystkie strony dostępne dla klientów w portalu Jira Service Management będą dostępne dla funkcji odpowiedzi Atlassian Intelligence podczas udzielania odpowiedzi klientom. Przykładowo, jeśli dostęp do określonej strony Confluence jest ograniczony i nie jest ona ogólnie dostępna za pośrednictwem Jira Service Management, treść z tej strony nie będzie używana w odpowiedzi Atlassian Intelligence. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach dla innych użytkowników w Twojej instancji, skonsultuj się z administratorem organizacji, aby upewnić się, że Twoje uprawnienia są odpowiednio ustawione.
  • W przypadku szablonów zamiarów „Na podstawie danych”:
    • Twoje dane zgłoszeń Jira Service Management (dane wejściowe) i sugerowane szablony zamiarów utworzone na podstawie tych danych (dane wyjściowe):
      • Nie są dostępne dla innych klientów.
      • nie są dostępne dla żadnego zewnętrznego dostawcy LLM innego niż OpenAI i Google;
      • Nie są przechowywane przez żadnego dostawcę LLM.
      • Nie są używane do ulepszania dużych modeli językowych.
      • są wykorzystywane tylko do obsługi Twojego środowiska.
    • Analiza zgłoszeń i transkrypcji czatów Jira Service Management przesłanych przez klientów w ramach powiązanego projektu Jira Service Management jest wykorzystywana wyłącznie w celu obsługi klienta.

  • OpenAI jest podrzędnym podmiotem przetwarzającym znajdującym się na naszej stronie Podrzędne podmioty przetwarzające. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.

Podsumowanie szczegółów zgłoszenia za pomocą Atlassian Intelligence

Jak Atlassian Intelligence podsumowuje szczegóły zgłoszenia w Jirze Copy link to heading Copied! Pokaż
  

Podsumowania AI w Jirze opierają się na dużych modelach językowych opracowanych przez OpenAI. Są wśród nich modele OpenAI opisane tutaj.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony.

Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI.

Podsumowanie szczegółów zgłoszenia za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zamiast czytać długie opisy i liczne komentarze na temat zgłoszenia w Jirze, możesz użyć Atlassian Intelligence w celu szybkiego wygenerowania podsumowania tych informacji. Dzięki temu agenci mogą szybko zapoznać się z kontekstem zgłoszenia i wszelkimi postępami, co pozwala im podejmować niezwłoczne działania i udzielać pomocy.

Naszym zdaniem podsumowywanie szczegółów zgłoszenia za pomocą Atlassian Intelligence najlepiej sprawdza się w przypadku zgłoszeń z dużą liczbą komentarzy i/lub długimi komentarzami oraz opisami.

Ograniczenia i uwagi dotyczące podsumowywania szczegółów zgłoszenia za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi zgłoszeń AI w Jirze, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca.

Z naszych doświadczeń wynika, że podsumowanie szczegółów zgłoszenia przy użyciu Atlassian Intelligence jest mniej przydatne w następujących sytuacjach:

  • Zgłoszenie nie ma historii lub szczegółów
  • Zgłoszenie ma ponad 100 komentarzy (podsumujemy tylko ostatnie 100 komentarzy)

Dlatego zachęcamy do przeanalizowania sytuacji, w których korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Twoje dane i podsumowanie szczegółów zgłoszenia za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas podsumowywania szczegółów zgłoszenia. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania.

Przetwarzamy:

  • Twoje prompty (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do polecenia, w tym szczegółowe informacje o zgłoszeniu Jira, np. opis zgłoszenia, komentarze i użytkownicy związani ze zgłoszeniem.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane strumienia kliknięć i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie prompty lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Podczas podsumowywania szczegółów zgłoszenia za pomocą Atlassian Intelligence w odniesieniu do Twoich danych stosowane są następujące środki:

  • Twoje prompty (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI;
    • Nie są przechowywane przez OpenAI.
    • Nie są używane do ulepszania modeli OpenAI.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • OpenAI jest podrzędnym podmiotem przetwarzającym znajdującym się na naszej liście podrzędnych podmiotów przetwarzających. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Ta funkcja działa zgodnie z uprawnieniami w instancji. Ta funkcja wykorzystuje tylko informacje dostępne w zgłoszeniu Jira i jest wywoływana w zgłoszeniu Jira. Dlatego może być wywoływana tylko przez użytkownika, który ma uprawnienia do przeglądania zgłoszenia i nie będzie miał dostępu do żadnych innych informacji.

Podział pracy dzięki AI

Jak funkcja podziału pracy dzięki AI wykorzystuje Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Funkcja podziału pracy dzięki AI opiera się na dużych modelach językowych opracowanych przez OpenAI.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Przeczytaj o funkcjonalności modeli OpenAI lub o tym podejściu w artykułach badawczych OpenAI.

Informacje o funkcji podziału pracy dzięki AI Copy link to heading Copied! Pokaż
  

Funkcja podziału pracy dzięki AI sugeruje zgłoszenia podrzędne na podstawie utworzonego przez Ciebie zgłoszenia Jira, ułatwiając podzielenie dużych fragmentów pracy na mniejsze. Twoje zgłoszenie jest używane jako kontekst do generowania sugestii dotyczących podsumowań i opisów zgłoszeń podrzędnych.

Naszym zdaniem funkcja podziału pracy dzięki AI najlepiej sprawdza się w scenariuszach, w których:

  • Rozpoczynasz od zgłoszenia, które ma szczegółowe podsumowanie i opis obejmujący wszelkie ograniczenia, instrukcje i definicje ukończenia.
  • Początkowe zgłoszenie nie ma istniejących zgłoszeń podrzędnych.
Ograniczenia i uwagi dotyczące korzystania z funkcji podziału pracy dzięki AI Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi funkcji podziału pracy dzięki AI, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Z naszych doświadczeń wynika, że funkcja podziału pracy dzięki AI jest mniej użyteczna w scenariuszach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • Nie zaczynasz od szczegółowego podsumowania i opisu zgłoszenia (np. jeśli próbujesz wygenerować sugestie dotyczące zgłoszeń podrzędnych na podstawie zgłoszenia z bardzo krótkim i ogólnym opisem).

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Jak najbardziej konkretne formułowanie zapytań do Atlassian Intelligence.
  • Podanie jak największej ilości informacji w podsumowaniu i opisie początkowego zgłoszenia.
Twoje dane i funkcja podziału pracy dzięki AI Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki funkcja podziału pracy dzięki AI wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania.

Przetwarzamy:

  • Twoje prompty (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do polecenia, w tym dane zgłoszenia (takie jak podsumowanie, opis i komentarze).
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane strumienia kliknięć i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie prompty lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Funkcja podziału pracy dzięki AI stosuje poniższe środki w stosunku do Twoich danych.

  • Twoje prompty (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów
    • Nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI.
    • Nie są przechowywane przez OpenAI.
    • Nie są używane do ulepszania modeli OpenAI.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • OpenAI jest podrzędnym podmiotem przetwarzającym znajdującym się na naszej liście podrzędnych podmiotów przetwarzających. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Ta funkcja działa zgodnie z uprawnieniami w instancji (tj. należy mieć dostęp do zgłoszenia, aby wygenerować sugestie dotyczące zgłoszeń podrzędnych). Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach generowanych przez innych użytkowników, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.
Jak analiza wykresów wykorzystuje Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Tworzenie incydentów za pomocą SI z wykorzystaniem Atlassian Intelligence opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open source (w tym serii Llama, Phi i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Te modele generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik był trenowany.

Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi.

Przypadki użycia tworzenia incydentów za pomocą SI Copy link to heading Copied! Pokaż
  

W przypadku eskalacji jednego lub większej liczby alertów lub grup alertów do incydentu w Jira Service Management funkcja tworzenia incydentów za pomocą SI wykorzystuje Atlassian Intelligence do szybkiego wstępnego wypełnienia wszystkich informacji kontekstowych, które możesz przeglądać w ramach procesu tworzenia incydentu. Dzięki temu użytkownicy mogą szybko zapoznać się z kontekstem incydentu utworzonego na podstawie tych alertów lub grup alertów, a także przejrzeć i potwierdzić wstępnie wypełnione informacje, w tym tytuł, opis i priorytet alertu podczas eskalowania go do incydentu.

Uważamy, że tworzenie incydentów za pomocą SI działa najlepiej w scenariuszach, w których:

  • Alerty dotyczące eskalacji do incydentu zawierają tytuł i opisy w języku angielskim.
  • Alerty dotyczące eskalacji do incydentu mają obszerne opisy.
  • Kiedy tworzysz incydent z więcej niż jednego alertu.
Co należy wziąć pod uwagę podczas tworzenia incydentu za pomocą SI Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych w tworzeniu incydentu za pomocą SI mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Odkryliśmy, że tworzenie incydentów za pomocą SI jest mniej przydatne w scenariuszach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • Alerty dotyczące eskalacji do incydentu zawierają tytuł lub opis (lub zarówno tytuł, jak i opis) w języku innym niż angielski.
  • Alerty dotyczące eskalacji do incydentu zawierają tylko ograniczone szczegóły.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Aby uzyskać najbardziej przydatne wyniki, sugerujemy jak najbardziej konkretne formułowanie zapytań do Atlassian Intelligence.

Warto też pamiętać, aby polecenia dla Atlassian Intelligence formułować jak najkonkretniej.

Twoje dane i tworzenie incydentów za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki tworzenie incydentu za pomocą SI wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do polecenia, na przykład opis alertu Jira Service Management, tytuł i priorytet.
  • Dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Jeśli chodzi o Twoje dane, podczas tworzenia incydentu za pomocą SI stosuje się wymienione poniżej środki:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI, Google lub Anthropic w usłudze AWS Bedrock.

    • Nie są przechowywane przez żadnego dostawcę LLM.
    • Nie są używane do ulepszania modeli LLM.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • Wszyscy zewnętrzni dostawcy LLM są podrzędnymi podmiotami przetwarzającymi i są wymienieni na naszej stronie Podrzędne podmioty przetwarzające. Nie wykorzystują oni Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Ta funkcja działa zgodnie z uprawnieniami dotyczącymi alertów w instancji. Tylko agenci, którzy mają uprawnienia do wyświetlania alertu i eskalowania go do incydentu, będą widzieć sugestie Atlassian Intelligence dotyczące wypełnienia szczegółów tworzonego incydentu.

Tworzenie przeglądu po incydencie

Jak tworzenie przeglądu po incydencie wykorzystuje Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Tworzenie przeglądu po incydencie (PIR, Post-Incident Review) przez Atlassian Intelligence jest obsługiwane przez duże modele językowe opracowane przez OpenAI. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Te modele generują odpowiedzi na podstawie danych wejściowych użytkowników i mają charakter probabilistyczny. Oznacza to, że odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik był trenowany.

Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI.

Przypadki użycia tworzenia przeglądów po incydentach za pomocą AI Copy link to heading Copied! Pokaż
  

Przeglądy po incydentach stanowią podstawową część procesu zarządzania incydentami, pomagając reagującym na incydenty i menedżerom wyciągać wnioski z bieżących incydentów i przekazywać spostrzeżenia w celu zapobiegania podobnym incydentom w przyszłości. Atlassian Intelligence pomaga przyspieszyć często czasochłonne zadanie sporządzania przeglądu po incydencie, sugerując do przejrzenia jego opis, wygenerowany w oparciu o odpowiednie informacje kontekstowe z instancji Jira Service Management i narzędzi czatu, takich jak Slack.

Naszym zdaniem tworzenie przeglądów po incydentach za pomocą AI najlepiej sprawdza się w scenariuszach, w których:

  • Organizacja stosuje spójną praktykę sporządzania przeglądów po incydentach.

  • Zespół ma szczegółowe informacje o incydencie rozproszone w narzędziach czatu, takich jak Slack, oraz Jira Service Management, co wymaga poświęcenia większej ilości czasu na sporządzanie przeglądu po incydencie na podstawie tych źródeł.

  • Organizacja rejestruje incydenty w Jira Service Management razem z kompletnymi, aktualnymi informacjami.

Co należy wziąć pod uwagę podczas tworzenia przeglądu po incydencie za pomocą AI Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi tworzenia przeglądów po incydentach, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Na przykład otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która może brzmieć rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca.

Z naszych doświadczeń wynika, że tworzenie przeglądu po incydencie jest mniej użyteczne w scenariuszach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • w celu prawidłowego wygenerowania opisu przeglądu po incydencie konieczne funkcja tworzenia przeglądu po incydencie potrzebuje dostępu do informacji, które nie są łatwo dostępne (np. kanały czatu, do których nie masz dostępu);
  • dane dostępne w instancji Jira Service Management są niekompletne lub niewystarczająco szczegółowe, aby funkcja tworzenia przeglądu po incydencie mogła wygenerować dokładny opis.

Dlatego zachęcamy do zastanowienia się nad sytuacjami, w których można skorzystać z Atlassian Intelligence, i sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Jak najbardziej konkretne formułowanie poleceń dla Atlassian Intelligence.
  • Zapewnienie, że Ty i Twój zespół konsekwentnie stosujecie praktyki zarządzania incydentami. Na przykład rejestrując kompletne i dokładne szczegóły incydentów w instancji Jira Service Management i wiążąc odpowiednie kanały czatu z incydentem.
Twoje dane i tworzenie przeglądów po incydentach za pomocą AI Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki funkcja tworzenie przeglądu po incydencie za pomocą AI wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na naszej stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • kontekst z instancji odpowiedni dla polecenia, taki jak dane incydentów (np. podsumowanie, etykiety, priorytet, zespoły reagujące i opis), powiązane alerty i powiązane kanały czatu aplikacji Slack;
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Funkcja tworzenia przeglądów po incydentach za pomocą AI stosuje poniższe środki w stosunku do Twoich danych.

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.

    • Nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI.

    • Nie są przechowywane przez OpenAI.

    • Nie są używane do ulepszania modeli OpenAI.

    • są wykorzystywane tylko do obsługi Twojego środowiska.

  • Wszyscy zewnętrzni dostawcy LLM są podrzędnymi podmiotami przetwarzającymi i są wymienieni na naszej stronie Podrzędne podmioty przetwarzające.

  • Ta funkcja działa zgodnie z uprawnieniami w instancji. Na przykład, jeśli nie masz dostępu do powiązanych alertów incydentu lub powiązanych kanałów aplikacji Slack, w otrzymanej odpowiedzi nie będą sugerowane treści z tych źródeł. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.

Generowanie opisów pull requestów za pomocą Atlassian Intelligence

Jak Bitbucket Cloud wykorzystuje Atlassian Intelligence do generowania opisów pull requestów Copy link to heading Copied! Pokaż
  

Generowanie opisów pull requestów za pomocą Atlassian Intelligence opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open source (w tym serii Llama, Phi i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego oraz kodu w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony.

Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi.

Przypadki użycia do generowania opisów pull request typu pull za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Atlassian Intelligence może pomóc w generowaniu, przekształcaniu i streszczaniu treści podczas pisania opisów lub komentarzy do pull requestów w środowisku przeglądu kodu w Bitbucket Cloud. Korzyści z tych elementów to między innymi:

  • Generowanie opisu pull requestu na podstawie zmian w kodzie zawartych w pull requeście.
  • Streszczanie, poprawianie lub modyfikowanie tonu opisu pull requestu.
  • Streszczanie, poprawianie lub modyfikowanie tonu komentarza do pull requestu.

Naszym zdaniem generowanie opisów pull requestów w Bitbucket Cloud za pomocą Atlassian Intelligence najlepiej sprawdza się w sytuacjach, gdy:

  • Jako autor kodu chcesz wykorzystać Atlassian Intelligence do pomocy przy pisaniu lub poprawianiu opisu pull requestu. Podejście to sprawdza się najlepiej w zespołach, które są w stanie sprawdzić i potwierdzić, że treści generowane przez Atlassian Intelligence są odpowiednie do opisania pull requestu.
  • Jako recenzent kodu chcesz wykorzystać Atlassian Intelligence do pomocy przy pisaniu lub poprawianiu brzmienia bądź treści sporządzonej uprzednio wersji roboczej komentarza do pull requestu.
Zagadnienia do rozważenia w przypadku generowania opisów pull request typu pull za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi tej funkcji, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Na przykład otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca.

Odkryliśmy, że generowanie opisów pull requestów w Bitbucket Cloud za pomocą Atlassian Intelligence sprawdza się gorzej w sytuacjach, gdy:

  • W opisie pull requestu trzeba zawrzeć odniesienie do informacji, których zmiany kodu nie zawierają (na przykład kodu źródłowego znajdującego się w innym miejscu w repozytorium).
  • Nie da się sprawdzić i potwierdzić, że treść wygenerowana przez Atlassian Intelligence jest dokładnym odzwierciedleniem pull requestu.
  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Jak najbardziej konkretne formułowanie zapytań do Atlassian Intelligence.
  • korekta, weryfikacja i edycja danych wyjściowych wygenerowanych przez asystenta pisania SI w celu uzyskania dokładności i przejrzystości;
  • współpraca z innymi osobami w celu zebrania opinii i poprawy jakości danych wyjściowych.
Dane użytkownika a generowanie opisów pull request typu pull za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence w Confluence wykorzystuje Twoje dane podczas definiowania terminów. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Polecenia (dane wejściowe) użytkownika a odpowiedzi (wyniki)
  • Kontekst z instancji istotny dla formułowanego polecenia, na przykład:
    • Zmiany w kodzie i komunikaty do commitów w pull requeście
    • Treść opisu pull requestu
    • Treść komentarza do pull requestu
  • Dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz
  • Opinia, którą chcesz przekazać na temat tej funkcji

W kwestii danych użytkownika, generowanie opisów pull requestów za pomocą Atlassian Intelligence wiąże się z zastosowaniem następujących środków:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI, Google lub Anthropic w usłudze AWS Bedrock.

    • Nie są przechowywane przez żadnego dostawcę LLM.
    • Nie są używane do ulepszania modeli LLM.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • Wszyscy zewnętrzni dostawcy LLM są podrzędnymi podmiotami przetwarzającymi i są wymienieni na naszej stronie Podrzędne podmioty przetwarzające.

Generowanie zapytań SQL w Atlassian Analytics

Jak Atlassian Intelligence generuje zapytania SQL w Atlassian Analytics Copy link to heading Copied! Pokaż
  

Generowanie zapytań SQL z wykorzystaniem Atlassian Intelligence w Atlassian Analytics opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open source (w tym serii Llama, Phi i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic.

Atlassian Intelligence wykorzystuje te modele do analizy i rozumienia języka naturalnego, a następnie generuje na ich podstawie język SQL w Atlassian Analytics.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi.

Przypadki użycia generowania zapytań SQL za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Możesz zadań Atlassian Intelligence pytanie w języku naturalnym i przetłumaczyć je na SQL, zamiast pisać własne zapytania SQL od zera. Po zadaniu pytania Atlassian Intelligence wykorzystuje schemat Atlassian Data Lake wybranego źródła danych do wygenerowania zapytania SQL, które może być używane do tworzenia wykresów na pulpitach Atlassian Analytics, a także może pomóc w poznaniu schematu w Data Lake.

Naszym zdaniem generowanie zapytań SQL za pomocą Atlassian Intelligence najlepiej sprawdza się w sytuacjach, gdy:

  • chcesz stworzyć niestandardowy wykres, zaczynając od wygenerowanego zapytania SQL i udoskonalając je w razie potrzeby;
  • pytanie w języku naturalnym zawiera słowa i pojęcia, do których odwołuje się schemat Atlassian Data Lake, tak szczegółowo, jak to tylko możliwe;
  • chcesz poznać schemat Atlassian Data Lake i dowiedzieć się więcej na jego temat.

Nie wiesz, jakie pytania zadawać?

Oto kilka sugestii:

  • Jakie jest 5 najpopularniejszych etykiet według liczby otwartych zgłoszeń Jira?
  • Ile zgłoszeń Jira zostało ukończonych w projekcie x w ciągu ostatniego miesiąca?
  • Jaki jest średni czas 5 najpopularniejszych statusów?
  • Jakie jest 5 najpopularniejszych stron Confluence w ostatnim miesiącu?
  • Ile wniosków zostało zgłoszonych w ciągu ostatnich 5 dni w naszym projekcie x w Jira Service Management?
Uwagi dotyczące generowania zapytań SQL za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do generowania zapytań SQL za pomocą Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Z naszych doświadczeń wynika, że generowanie zapytań SQL za pomocą jest mniej przydatne w następujących sytuacjach:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • funkcja ta jest potrzebna, aby uzyskać dostęp do informacji, które nie są łatwo dostępne w schemacie Atlassian Data Lake (przykładowo danych dla Advanced Roadmaps) w celu uzyskania prawidłowej odpowiedzi na pytanie;
  • pytanie zawiera odniesienia do pól niestandardowych;
  • pytanie jest zadawane w języku innym niż angielski;
  • Twoja znajomość języka SQL nie wystarcza, aby sprawdzić poprawność zapytania SQL zwróconego przez Atlassian Intelligence.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Jak najbardziej konkretne formułowanie zapytań do Atlassian Intelligence.
  • Upewnij się, że źródło danych Atlassian Data Lake, którego używasz, zawiera dane potrzebne do udzielenia odpowiedzi na Twoje pytanie.
Twoje dane a generowanie zapytań SQL za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas generowania zapytań SQL. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do podpowiedzi zawiera publicznie dostępne schematy Atlassian Data Lake odpowiednie do instancji.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Podczas generowania zapytań SQL za pomocą Atlassian Intelligence w odniesieniu do Twoich danych stosowane są następujące środki:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI, Google lub Anthropic w usłudze AWS Bedrock.

    • Nie są przechowywane przez żadnego dostawcę LLM.
    • Nie są używane do ulepszania modeli LLM.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • Wszyscy zewnętrzni dostawcy LLM są wymienieni na naszej stronie Podrzędne podmioty przetwarzające. Nie wykorzystują oni Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Ta funkcja działa zgodnie z uprawnieniami w połączeniu Atlassian Data Lake. Przykładowo jeśli nie masz dostępu do połączenia Atlassian Data Lake, nie będzie można stworzyć zapytania SQL.

Wyszukiwanie odpowiedzi w Confluence

Jak Atlassian Intelligence wyszukuje odpowiedzi w Confluence Copy link to heading Copied! Pokaż
  

Wyszukiwanie odpowiedzi w Confluence z wykorzystaniem Atlassian Intelligence opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open source (w tym serii Llama, Phi i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi.

Przypadki użycia do wyszukiwania odpowiedzi w Confluence Copy link to heading Copied! Pokaż
  

Bazy wiedzy rosną zbyt szybko, aby użytkownicy mogli za nimi nadążyć. Wyszukiwanie odpowiedzi w Confluence za pomocą Atlassian Intelligence skraca drogę do kluczowych informacji potrzebnych klientom do kontynuowania pracy. Funkcja ta ułatwia znajdowanie potrzebnych informacji. Rozpoznaje ona rodzaje pytań, które możesz zadać koledze z zespołu, i natychmiast na nie odpowiada. Dowiedz się więcej o tym, jak korzystać z Atlassian Intelligence w celu wyszukiwania odpowiedzi w Confluence.

Naszym zdaniem wyszukiwanie odpowiedzi w Confluence za pomocą Atlassian Intelligence działa najlepiej, gdy witryna Confluence jest pełna szczegółowych, kompletnych i aktualnych treści.

Ta funkcja nie generuje nowych treści, ale przeszukuje strony i blogi Confluence (z poszanowaniem ograniczeń), aby znaleźć odpowiedź na Twoje pytanie. Atlassian Intelligence generuje odpowiedzi wyłącznie na podstawie tego, co znajduje się w Confluence i do czego masz dostęp.

Nie wiesz, jakie pytania zadawać?

Oto kilka sugestii:

  • Kiedy zespół marketingowy będzie znów poza siedzibą firmy?
  • Jaka jest polityka pracy z domu?
  • Czym jest Project Sunrise?
  • Kiedy odbędzie się nasza kolejna kampania marketingowa?
  • Gdzie są informacje o wydaniu najnowszego produktu SpaceLaunch?
  • Jak przedłożyć wydatki w celu uzyskania zwrotu kosztów?
Co warto wziąć pod uwagę w przypadku wyszukiwania odpowiedzi w Confluence za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do wyszukiwania odpowiedzi w Confluence za pomocą Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Na przykład otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca.

Z naszych doświadczeń wynika, że wyszukiwanie odpowiedzi w Confluence za pomocą Atlassian Intelligence jest mniej przydatne w następujących sytuacjach:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • Potrzebne są aktualne i dokładne informacje, które często się zmieniają (np. aktualizowany co miesiąc plan działań).
  • Potrzebne są aktualne i dokładne informacje o konkretnych osobach i rolach, jakie odgrywają w Twojej organizacji.
  • Potrzebny jest dostęp do informacji, które nie są łatwo dostępne (np. strony z ograniczeniami w Twojej instancji Confluence) w celu uzyskania właściwej odpowiedzi.
  • Odpowiedź składa się z szeregu różnych wartości lub kategorii (np. metryki aktualizowane co tydzień).
  • Potrzebne są odpowiedzi, które wymagają rozpoznania niuansów, złożoności lub ludzkiego sposobu rozumowania.

Może się także zdarzyć, że wyszukiwanie odpowiedzi w Confluence przy użyciu Atlassian Intelligence nie będzie działało poprawnie w przestrzeniach Confluence, w których dokumenty napisane są w kilku językach.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Jak najbardziej konkretne formułowanie zapytań do Atlassian Intelligence.
  • Zadawanie pytań na temat kwestii, o których wiesz, że są udokumentowane w instancji Confluence i do których masz dostęp.
Twoje dane i wyszukiwanie odpowiedzi w Confluence za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas wyszukiwania odpowiedzi w Confluence. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do podpowiedzi, jak na przykład treść z trzech pierwszych stron zwróconych podczas wyszukiwania w Confluence.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Podczas wyszukiwania odpowiedzi w Confluence za pomocą Atlassian Intelligence w odniesieniu do Twoich danych stosowane są następujące środki:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI, Google lub Anthropic w usłudze AWS Bedrock.

    • Nie są przechowywane przez żadnego dostawcę LLM.
    • Nie są używane do ulepszania modeli LLM.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • Wszyscy zewnętrzni dostawcy LLM są podwykonawcami przetwarzania znajdującymi się na naszej stronie podwykonawców przetwarzania. Nie wykorzystują oni Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Ta funkcja działa zgodnie z uprawnieniami w instancji. Przykładowo jeśli nie masz dostępu do określonej strony Confluence, funkcja nie będzie wykorzystywać w wyświetlanej odpowiedzi treści z tej strony. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.

Wyszukiwanie zgłoszeń w Jirze

Jak Atlassian Intelligence wyszukuje zgłoszenia w Jirze Copy link to heading Copied! Pokaż
  

Wyszukiwanie zgłoszeń z wykorzystaniem Atlassian Intelligence w Jirze opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open source (w tym serii Llama, Phi i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic.

Atlassian Intelligence wykorzystuje te modele do analizy i zrozumienia języka naturalnego, a następnie przekłada go na język JQL (Jira Query Language) w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi.

Przypadki użycia do wyszukiwania zgłoszeń w Jirze Copy link to heading Copied! Pokaż
  

Atlassian Intelligence pozwala teraz na interakcję w języku potocznym — bez konieczności formułowania złożonych zapytań. Atlassian Intelligence przekłada Twoje polecenie na zapytanie JQL, które szybko pomaga w wyszukaniu konkretnych zgłoszeń.

Naszym zdaniem wyszukiwanie zgłoszeń za pomocą Atlassian Intelligence najlepiej sprawdza się w następujących sytuacjach:

  • Wpisujesz zapytania dotyczące zgłoszeń Jira, korzystając z pól zgłoszeń dostępnych w projekcie Jira.
  • Zapytanie zawiera określone pola i wartości, które mogą pomóc zawęzić wyszukiwanie zgłoszeń.
  • pola i wartości, których szukasz, istnieją w Twoim projekcie Jira;
  • Twoje zapytanie jest w języku angielskim;
  • zapytanie można przetłumaczyć na język JQL. Ponieważ Atlassian Intelligence konwertuje podpowiedzi na kod JQL, dane wejściowe zawierające słowa kluczowe, które można przetłumaczyć na JQL, mogą zapewnić lepsze wyniki.
Co warto wziąć pod uwagę w przypadku wyszukiwania zgłoszeń za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do wyszukiwania zgłoszeń za pomocą Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Otrzymane odpowiedzi mogą na przykład nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca.

Z naszych doświadczeń wynika, że wyszukiwanie zgłoszeń za pomocą Atlassian Intelligence jest mniej przydatne w następujących sytuacjach:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • Wyszukujesz obiekty Jira, które nie są zgłoszeniami, takie jak projekty, tablice lub użytkownicy.
  • wyszukujesz w języku innym niż angielski;
  • Chcesz, aby wyszukiwanie analizowało zgłoszenia w celu tworzenia wykresów, podsumowań lub innych reprezentacji danych.
  • Wyszukiwanie wymaga funkcji, które nie są obecnie dostępne w JQL (np. pytania „Znajdź zgłoszenia skomentowane przeze mnie” nie można przetłumaczyć na funkcję JQL).

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Warto też pamiętać, aby polecenia dla Atlassian Intelligence formułować jak najkonkretniej. Podaj dokładnie te pola i wartości, których szukasz.

Twoje dane i wyszukiwanie zgłoszeń za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas wyszukiwania zgłoszeń. Ta sekcja stanowi uzupełnienie informacji dostępnych na naszej stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do podpowiedzi, np. bieżący projekt, w którym się znajdujesz.
  • Dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Jeśli chodzi o Twoje dane, to podczas wyszukiwania zgłoszeń za pomocą Atlassian Intelligence stosowane są następujące środki:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI, Google lub Anthropic w usłudze AWS Bedrock.

    • Nie są przechowywane przez żadnego dostawcę LLM.
    • Nie są używane do ulepszania modeli LLM.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
    • Są przechowywane w naszej bazie danych przez 90 dni, a Twoje polecenia będą widoczne w Twojej historii wyszukiwania.

  • Wszyscy zewnętrzni dostawcy LLM są podwykonawcami przetwarzania znajdującymi się na naszej stronie podwykonawców przetwarzania. Nie wykorzystują oni Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Odpowiedzi na wyszukiwanie będą oparte na zgłoszeniach i polach, do których masz dostęp (np. jeśli nie masz dostępu do konkretnego projektu Jira, nie otrzymasz wyników wyszukiwania zgłoszeń i pól z tego projektu).

Podział pracy dzięki AI

Jak funkcja podziału pracy dzięki AI wykorzystuje Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Funkcja podziału pracy dzięki AI opiera się na dużych modelach językowych opracowanych przez OpenAI.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Przeczytaj o funkcjonalności modeli OpenAI lub o tym podejściu w artykułach badawczych OpenAI.

Informacje o funkcji podziału pracy dzięki AI Copy link to heading Copied! Pokaż
  

Funkcja podziału pracy dzięki AI sugeruje zgłoszenia podrzędne na podstawie utworzonego przez Ciebie zgłoszenia Jira, ułatwiając podzielenie dużych fragmentów pracy na mniejsze. Twoje zgłoszenie jest używane jako kontekst do generowania sugestii dotyczących podsumowań i opisów zgłoszeń podrzędnych.

Naszym zdaniem funkcja podziału pracy dzięki AI najlepiej sprawdza się w scenariuszach, w których:

  • Rozpoczynasz od zgłoszenia, które ma szczegółowe podsumowanie i opis obejmujący wszelkie ograniczenia, instrukcje i definicje ukończenia.
  • Początkowe zgłoszenie nie ma istniejących zgłoszeń podrzędnych.
Ograniczenia i uwagi dotyczące korzystania z funkcji podziału pracy dzięki AI Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi funkcji podziału pracy dzięki AI, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Z naszych doświadczeń wynika, że funkcja podziału pracy dzięki AI jest mniej użyteczna w scenariuszach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • Nie zaczynasz od szczegółowego podsumowania i opisu zgłoszenia (np. jeśli próbujesz wygenerować sugestie dotyczące zgłoszeń podrzędnych na podstawie zgłoszenia z bardzo krótkim i ogólnym opisem).

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Jak najbardziej konkretne formułowanie zapytań do Atlassian Intelligence.
  • Podanie jak największej ilości informacji w podsumowaniu i opisie początkowego zgłoszenia.
Twoje dane i funkcja podziału pracy dzięki AI Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki funkcja podziału pracy dzięki AI wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania.

Przetwarzamy:

  • Twoje prompty (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do polecenia, w tym dane zgłoszenia (takie jak podsumowanie, opis i komentarze).
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane strumienia kliknięć i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie prompty lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Funkcja podziału pracy dzięki AI stosuje poniższe środki w stosunku do Twoich danych.

  • Twoje prompty (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów
    • Nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI.
    • Nie są przechowywane przez OpenAI.
    • Nie są używane do ulepszania modeli OpenAI.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • OpenAI jest podrzędnym podmiotem przetwarzającym znajdującym się na naszej liście podrzędnych podmiotów przetwarzających. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Ta funkcja działa zgodnie z uprawnieniami w instancji (tj. należy mieć dostęp do zgłoszenia, aby wygenerować sugestie dotyczące zgłoszeń podrzędnych). Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach generowanych przez innych użytkowników, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.
Jak sugerowane tematy w bazie wiedzy wykorzystują Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Sugerowane tematy w bazie wiedzy bazują na dużych modelach językowych opracowanych przez OpenAI i Anthropic, a także na połączeniu modeli językowych opartych na transformatorach open source i innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT OpenAI i serię modeli Claude firmy Anthropic.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele kodujące open-source konwertują tekstowe dane wejściowe w formy numeryczne (osadzenia), które są używane do identyfikowania i przygotowania tematów na podstawie danych wejściowych.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model był trenowany.

Dowiedz się więcej o możliwościach modeli OpenAI i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat Multi-QA-MiniLM i E5-Multilingual.

Przypadki wykorzystania sugerowanych tematów w bazie wiedzy Copy link to heading Copied! Pokaż
  

Funkcja ta pomaga administratorom i agentom zrozumieć luki w ich bazie wiedzy poprzez analizę wniosków o usługę otrzymanych w projekcie. Wyróżnia ona tematy, dla których osoby poszukujące pomocy zgłaszają wnioski (na podstawie danych z ostatnich 30 dni), ale dla których nie ma już istniejącej wiedzy. Sugerowanie tematów ma zapewnić administratorom projektów i agentom wgląd w to, ile wniosków można skierować do samoobsługi lub przynajmniej rozwiązać za pomocą wiedzy.

W naszym przekonaniu zwiększenie liczby artykułów wiedzy wpłynie na działanie innych funkcji w Jira Service Management, takich jak odpowiedzi SI wirtualnego agenta obsługi. Tworzenie przez administratorów lub agentów artykułów na sugerowane tematy może również pomóc w poprawie wskaźnika rozwiązywania wniosków za pomocą odpowiedzi SI.

Naszym zdaniem sugerowane tematy najlepiej sprawdzają się w scenariuszach, w których:

  • W ciągu 30 dni zgłaszanych jest co najmniej 40–100 wniosków.
  • Treść wniosków, taka jak podsumowanie, opis, wartości pól itp., jest napisana głównie w języku angielskim. Jakość sugerowanych tematów może być różna w przypadku innych języków.
Uwagi dotyczące korzystania z sugerowanych tematów w bazie wiedzy Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi sugerowanych tematów w bazie wiedzy mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Z naszych doświadczeń wynika, że sugerowane tematy w bazie wiedzy są mniej przydatne w scenariuszach, w których:

  • Potrzebne są tematy do projektu, który otrzymuje mniej niż 40 wniosków w ciągu miesiąca.
  • Projekt automatycznie tworzy wnioski na podstawie alertów, ponieważ mogą one nie potrzebować artykułu z bazy wiedzy.
  • Potrzebne są tematy do wniosków, których podsumowanie, opis, wartości pól itp., jest napisana w językach innych niż angielski.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Proszenie członków zespołu o zapoznanie się z sugerowanymi tematami przed utworzeniem artykułów.
  • Proszenie administratorów projektów o wskazanie ekspertów w zespołach w celu opracowania wysokiej jakości artykułów z bazy wiedzy.
Twoje dane a sugerowane tematy w bazie wiedzy Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki funkcja sugerowanych tematów wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania.

Przetwarzamy:

  • Kontekst instancji istotny dla funkcji, jak np. dane we wniosku, takie jak wartości pól, podsumowanie i opis w celu identyfikacji tematów.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane strumienia kliknięć i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie prompty lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Podczas sugerowania tematów wobec Twoich danych stosowane są wymienione poniżej środki.

Sugerowane tematy w bazie wiedzy:

  • Nie są dostępne dla innych klientów
  • Nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI, Google lub Anthropic w usłudze AWS Bedrock.
  • Nie są przechowywane przez żadnego dostawcę LLM.
  • Nie są wykorzystywane do ulepszania jakichkolwiek zewnętrznych LLM.
  • są wykorzystywane tylko do obsługi Twojego środowiska.
  • OpenAI jest podwykonawcą przetwarzania znajdującym się na naszej liście podwykonawców przetwarzania. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem wniosku.
  • Przetwarzamy tylko wnioski, które są dostępne dla wszystkich w projekcie usługowym dla Twojej witryny. Wnioski z uprawnieniami na poziomie zgłoszenia nie są uwzględniane przy sugerowaniu tematów.
  • Listę sugerowanych tematów odświeżamy co 7 dni, aby sugestie były aktualne.

Wyszukiwanie treści w Confluence

Jak wyszukiwanie treści Confluence za pomocą Atlassian Intelligence wykorzystuje Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Wyszukiwanie treści Confluence za pomocą Atlassian Intelligence jest oparte na dużych modelach językowych opracowanych przez OpenAI i Google. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI i serię modeli Gemini firmy Google.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego, a następnie przekłada go na język CQL (Confluence Query Language) w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model był trenowany.

Przeczytaj więcej o możliwościach modeli OpenAI.

Przypadki użycia wyszukiwania treści Confluence za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Atlassian Intelligence pozwala teraz na wyszukiwanie treści w Confluence w języku potocznym — bez konieczności formułowania złożonych zapytań. Z pomocą Atlassian Intelligence Twoje polecenie jest przekładane na zapytanie w CQL, które szybko pomaga w wyszukaniu konkretnych zgłoszeń.

Naszym zdaniem wyszukiwanie treści Confluence za pomocą Atlassian Intelligence najlepiej sprawdza się w następujących sytuacjach:

  • Wyszukujesz treść Confluence dostępną w bazie wiedzy Confluence.
  • Zapytanie zawiera określone pola i wartości, które mogą pomóc zawęzić wyszukiwanie treści.
  • Twoje zapytanie można przetłumaczyć na CQL. Atlassian Intelligence konwertuje polecenia w języku naturalnym na zapytania CQL. Tak więc dane wejściowe zawierające słowa kluczowe, które można przetłumaczyć na CQL, mogą zapewnić lepsze wyniki.
  • Wyszukujesz treści w języku angielskim.
Co warto wziąć pod uwagę w przypadku wyszukiwania treści Confluence za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do wyszukiwania treści Confluence za pomocą Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Z naszych doświadczeń wynika, że wyszukiwanie treści Confluence za pomocą Atlassian Intelligence jest mniej przydatne w następujących sytuacjach:

  • Chcesz znaleźć treści za pomocą filtrów, które nie są obecnie obsługiwane przez CQL.
  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • wyszukujesz w języku innym niż angielski;
  • Chcesz, aby wyszukiwanie analizowało treści w celu tworzenia wykresów, podsumowań lub innych reprezentacji danych.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Warto też pamiętać, aby polecenia dla Atlassian Intelligence formułować jak najkonkretniej. Podaj dokładnie te pola i wartości, których szukasz.

Twoje dane i wyszukiwanie treści Confluence za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas wyszukiwania treści Confluence. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania.

Przetwarzamy:

  • Twoje prompty (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do polecenia, np. filtrowanie wyników wyszukiwania na podstawie uprawnień użytkownika.
  • Dane dotyczące interakcji użytkownika z naszymi funkcjami, takie jak dane strumienia kliknięć.
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie prompty lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Jeśli chodzi o Twoje dane, to podczas wyszukiwania treści Confluence za pomocą Atlassian Intelligence stosowane są następujące środki:

  • Twoje prompty (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI i Google;
    • Nie są przechowywane przez żadnego dostawcę LLM
    • Nie są wykorzystywane do ulepszania żadnego dostawcy LLM.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • OpenAI i Google Vertex są podrzędnymi podmiotami przetwarzającymi znajdującymi się na naszej liście podrzędnych podmiotów przetwarzających. Podmioty te nie wykorzystują Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem wniosku.
  • Ta funkcja działa zgodnie z uprawnieniami w instancji. Jeśli na przykład nie masz dostępu do danej strony Confluence, wyświetlona odpowiedź nie będzie zawierać sugerowanej treści z tej strony. Jeśli nie chcesz, aby Twoje treści były dostępne dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.

Dowiedz się więcej o Atlassian Intelligence

Dowiedz się więcej o korzystaniu z Atlassian Intelligence

Błyskawiczne gromadzenie analiz na podstawie swoich danych

Wybierz funkcję Atlassian Intelligence, aby uzyskać przejrzyste informacje na temat przypadków użycia i wykorzystania danych.

Analiza wykresów

Jak analiza wykresów wykorzystuje Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Chart insights opierają się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open source (w tym serii Llama, Phi i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony.

Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi.

Przypadki użycia analizy wykresów Copy link to heading Copied! Pokaż
  

Analizy wykresów wykorzystują funkcję Atlassian Intelligence, aby pomóc użytkownikom w zrozumieniu danych na dowolnym wykresie w Atlassian Analytics. Na podstawie tytułu pulpitu, tytułu wykresu i danych wykresu (w tym nagłówków kolumn i wartości wierszy) funkcja generuje podsumowanie tego wykresu i jego danych w języku naturalnym. Podejmie też próbę rozpoznania wszelkich trendów lub anomalii, aby zapewnić Ci określone informacje na temat wykresu.

Naszym zdaniem analizy wykresów najlepiej sprawdzają się w scenariuszach, w których:

  • Wykresy mają wiele wierszy danych.
  • Wykresy mają tytuł pulpitu.
  • Wykresy mają nagłówki kolumn.
  • Wykresy mają wartości we wszystkich wierszach i kolumnach.

Wykresy słupkowe, wykresy liniowe i wykresy słupkowo-liniowe sprawdzają się najlepiej w przypadku tej funkcji funkcją, ponieważ zazwyczaj zawierają trendy, daty i wiele wierszy danych.

Co należy wziąć pod uwagę podczas korzystania z analiz wykresów Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych w analizach wykresów, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Z naszych doświadczeń wynika, że analizy wykresów są mniej użyteczne w scenariuszach, w których:

  • Wykresy mają jeden lub tylko kilka wierszy danych.
  • Wykresy prezentują jeden typ wartości.
  • Na wykresach brakuje tytułów, etykiet osi i nagłówków kolumn.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Kontrola dokładności analiz z innymi użytkownikami, którzy mogą mieć większy kontekst dotyczący konkretnych danych wyświetlanych na wykresie.
  • Uwzględnienie, że podczas udzielania odpowiedzi Atlassian Intelligence wykorzystuje tylko kontekst pojedynczego wykresu, a nie całego pulpitu.
Twoje dane i analizy wykresów Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki analizy wykresów wykorzystują Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do polecenia, np. dane z wykresu.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Podczas analizy wykresów wobec Twoich danych stosowane są wymienione poniżej środki.

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI, Google lub Anthropic w usłudze AWS Bedrock.

    • Nie są przechowywane przez żadnego dostawcę LLM.
    • Nie są używane do ulepszania modeli LLM.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • Wszyscy zewnętrzni dostawcy LLM są podwykonawcami przetwarzania znajdującymi się na naszej stronie podwykonawców przetwarzania. Nie wykorzystują oni Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Ta funkcja wykorzystuje tylko informacje z pulpitu, do którego masz dostęp i w przypadku którego zażądano analizy.

Sugeruj typy wniosku w Jira Service Management

Jak Atlassian Intelligence sugeruje typy wniosków w Jira Service Management Copy link to heading Copied! Pokaż
  

Sugerowanie typów wniosków za pomocą Atlassian Intelligence jest obsługiwane przez duże modele językowe opracowane przez OpenAI. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI.

Atlassian Intelligence wykorzystuje te modele do analizy danych wprowadzanych w języku naturalnym i generowania rekomendacji dotyczących nazw i opisów typów wniosków w ramach usługi Jira Service Management.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Przeczytaj więcej o możliwościach modeli OpenAI.

Przypadki użycia dotyczące sugerowania typów wniosków w Jira Service Management Copy link to heading Copied! Pokaż
  

Nie trać czasu na zastanawianie się, jakie typy wniosków musisz utworzyć dla swojego projektu, a zamiast tego korzystaj z sugestii Atlassian Intelligence. Wystarczy, że opiszesz swoją pracę i to, czym zazwyczaj zarządza Twój zespół, aby zobaczyć, jakie typy wniosków możesz utworzyć. Wybierz jedną z sugestii wygenerowanych przez Atlassian Intelligence, aby utworzyć typ wniosku. Dowiedz się więcej o tym, jak używać Atlassian Intelligence w celu sugerowania typów wniosków.

Naszym zdaniem korzystanie z Atlassian Intelligence w celu sugerowania typów wniosków najlepiej sprawdza się w sytuacjach, w których:

  • występują bardzo specyficzne przypadki użycia, których istniejące szablony typów wniosków nie obsługują;
  • masz bardzo ogólne wymagania i szukasz pomysłów;
  • używasz popularnego języka (na przykład angielskiego lub hiszpańskiego).
Co należy wziąć pod uwagę podczas korzystania z Atlassian Intelligence w celu sugerowania typów wniosków Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do sugerowania typów wniosków za pomocą Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Ustaliliśmy, że użycie Atlassian Intelligence do sugerowania typów wniosków jest mniej przydatne w sytuacjach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • w celu udzielenia właściwej odpowiedzi na Twój wniosek ta funkcja potrzebuje dostępu do informacji, które nie są łatwo dostępne (np. znajdują się w Twojej instancji);
  • dostarczasz podpowiedzi, które są zbyt niejasne lub nieistotne w kontekście zarządzania usługami;
  • nie używasz popularnego języka.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Jak najbardziej konkretne formułowanie zapytań do Atlassian Intelligence.
Twoje dane i korzystanie z Atlassian Intelligence w celu sugerowania typów wniosków Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane w celu sugerowania typów wniosków. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • kontekst instancji odpowiedni do podpowiedzi;
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Jeśli chodzi o Twoje dane, to w kontekście używania Atlassian Intelligence w celu sugerowania typów wniosków stosuje się następujące środki.

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI.

    • Nie są przechowywane przez żadnego dostawcę LLM.
    • Nie są używane do ulepszania modeli LLM.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • Wszyscy zewnętrzni dostawcy LLM są podwykonawcami przetwarzania znajdującymi się na naszej stronie podwykonawców przetwarzania. Nie wykorzystują oni Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Ta funkcja wykorzystuje tylko informacje z podpowiedzi, więc wszystkie uprawnienia Jira są respektowane.

Sugeruj typy wniosku w Jira Service Management

Jak podsumowanie obszarów priorytetowych dla kierownictwa wykorzystuje Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Podsumowanie obszarów priorytetowych dla kierownictwa jest oparte na dużych modelach językowych opracowanych przez OpenAI. Są wśród nich modele OpenAI opisane tutaj.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Przeczytaj więcej o możliwościach modeli OpenAI

Przypadki użycia podsumowania obszarów priorytetowych dla kierownictwa Copy link to heading Copied! Pokaż
  

Podsumowanie obszarów priorytetowych dla kierownictwa wykorzystuje Atlassian Intelligence do przygotowania szybkiego, praktycznego podsumowania obszaru priorytetowego, zawierającego między innymi informacje o realizowanych pracach i kondycji powiązanych celów, sugestie, na co zwrócić uwagę, oraz rekomendacje dotyczące działań naprawczych w odpowiedzi na zgłoszenia.

Podsumowania obszarów priorytetowych dla kierownictwa działa najlepiej, gdy:

  • komunikaty dotyczące obszaru priorytetowego i celu są kompletne, dokładne i aktualne oraz zawierają odpowiednio szczegółowe opisane osiągnięcia, postępy i zagrożenia.
  • Wszystkie odpowiednie cele służące do pomiaru sukcesu połączono bezpośrednio z obszarem priorytetowym.
  • Obszar priorytetowy jest połączony z podrzędnymi obszarami priorytetowymi za pomocą odpowiednich komunikatów o postępach i połączeń celów.
Co należy wziąć pod uwagę podczas korzystania z podsumowania obszarów priorytetowych dla kierownictwa Copy link to heading Copied! Pokaż
  

Należy pamiętać, że ze względu na sposób działania modeli używanych do obsługi podsumowania obszarów priorytetowych dla kierownictwa mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Z naszych doświadczeń wynika, że podsumowanie obszarów priorytetowych dla kierownictwa jest mniej przydatne w scenariuszach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • w celu udzielenia właściwej odpowiedzi na Twój wniosek ta funkcja potrzebuje dostępu do informacji, które nie są łatwo dostępne (np. znajdują się w Twojej instancji).
  • Komunikaty dotyczące obszaru priorytetowego i celu są niekompletne, brakujące lub niezbyt szczegółowe. Jeśli komunikaty o postępach nie istnieją, opierają się wyłącznie na obrazach lub są źle napisane, Atlassian Intelligence nie będzie miał odpowiedniego kontekstu, aby wygenerować dokładne podsumowanie.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Dane i podsumowanie obszarów priorytetowych dla kierownictwa Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki podsumowania obszarów priorytetowych dla kierownictwa wykorzystują Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania.

Przetwarzamy:

  • Twoje prompty (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst z instancji związany z podpowiedzią, taki jak aktualizacje obszarów priorytetowych, aktualizacje celów oraz powiązane obszary tematyczne i cele.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane strumienia kliknięć i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie prompty lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Podczas korzystania z podsumowania obszarów priorytetowych dla kierownictwa wobec Twoich danych stosowane są wymienione poniżej środki.

  • Twoje prompty (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów
    • Nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI.
    • Nie są przechowywane przez OpenAI.
    • Nie są używane do ulepszania systemu OpenAI.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • OpenAI jest podrzędnym podmiotem przetwarzającym znajdującym się na naszej liście podrzędnych podmiotów przetwarzających. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem wniosku.
  • Ta funkcja działa zgodnie z uprawnieniami w instancji. Przykładowo jeśli nie masz dostępu do celów powiązanych z Twoim obszarem priorytetowym w Focus, nie zostaną one uwzględnione w otrzymanej odpowiedzi.

Dowiedz się więcej o Atlassian Intelligence

Dowiedz się więcej o korzystaniu z Atlassian Intelligence

Odniesienia

Na naszej stronie ze statusami produktów Atlassian możesz sprawdzać informacje o statusie produktów aktualizowane w czasie rzeczywistym.

Dowiedz się więcej o Atlassian Intelligence

Dowiedz się, w jaki sposób Atlassian zarządza danymi klientów.

Dowiedz się więcej o Atlassian Rovo