Warsztat inżynieryjny Smartcat AI Prompt

Teraz łatwiej niż kiedykolwiek można zoptymalizować Smartcat pod kątem wyższej jakości i przepustowości, korzystając z różnorodnych narzędzi generatywnej sztucznej inteligencji wbudowanych w platformę.

Tytuł

W tej interaktywnej, praktycznej sesji zespół produktowy Smartcat:

➡️ Zapoznaj się z podstawowymi możliwościami Gen AI, które są teraz dostępne na platformie Smartcat AI
➡️ Zanurz się w szczegółach optymalizacji Smartcat w różnych scenariuszach
➡️ Odpowiadać na pytania i udzielać szczegółowych wskazówek, które pomogą Ci wykorzystać te narzędzia AI w Twoich własnych treściach

➡️ Udostępnij przykłady monitów OpenAI dla Smartcat

Dowiedz się, jak Twoja organizacja może zastosować sztuczną inteligencję Smartcat

Pytania i odpowiedzi dotyczące seminarium internetowego

P: Czy ta funkcja jest dostępna tylko w ramach planu subskrypcji Unite?

A: Sugeruję, abyś skontaktował się z działem obsługi klienta i zapytał o swoją subskrypcję.


P: Jeśli chcesz przetłumaczyć plik XLIFF, czy użycie podpowiedzi AI stanowi wartość dodaną? A może powinniśmy pozostać przy obecnym modelu?

A: Jak pokazał Andy, może to być wartość dodana, jeśli chcesz wypracować jakąś bardzo specyficzną terminologię lub styl. Za chwilę pokażemy Ci, co jeszcze można zrobić.


P: Czy jest dostępna lista domen?

A: Studia LLM obejmują większość dziedzin. Są one szkolone na podstawie miliardów dokumentów.


P: Czy w pewnym momencie będzie można powiązać monit słownika z konkretnymi słownikami, zamiast ze wszystkimi słownikami dostępnymi w danym projekcie? Moim celem jest ograniczenie fałszywych alarmów poprzez poproszenie modelu o użycie określonego słownika, ale nadal zachowanie w edytorze słowników referencyjnych, aby redaktorzy mogli sprawdzać inną terminologię, taką jak terminy polisemiczne, terminy ogólne, synonimy itp., których nie chcę, aby model używał do tłumaczenia we wszystkich przypadkach.

A: Dobre pytanie. W tej chwili korzystamy ze słowników związanych z projektem. Jedną z opcji w Twoim przypadku mogłoby być dostrojenie silnika przy użyciu Twoich danych. Ale możemy rozważyć Twoją sugestię.


P: Czy istnieje jakieś ograniczenie co do długości monitu, w razie gdybym chciał być bardzo szczegółowy pod względem stylu, terminologii, standardowych zwrotów itp.?

A: Technicznie rzecz biorąc, nie. Ale to może spowolnić proces tłumaczenia. Jeśli chcesz wpłynąć na ogólną wydajność, lepszym rozwiązaniem może okazać się dostrojenie silnika.


P: Czy możemy dodać teksty równoległe jako odniesienia, aby sztuczna inteligencja mogła wybrać z nich styl?

A: Możesz dostosować wyszukiwarkę, podając pary zdań jako punkt odniesienia, a wyszukiwarka spróbuje dopasować się do Twojego stylu.


P: Czy gdy wykonujemy tłumaczenie za pomocą monitu/LLM, wykorzystywana jest liczba słów dostępna w naszej subskrypcji? Albo jak to działa?

O: Tak, słowa wygenerowane za pomocą podpowiedzi LLM będą zużywać zasoby Smartwords.


P: Czy możesz wyjaśnić znaczenie stosowania nawiasów klamrowych? Czy są to terminy systemowe, które zadziałają tylko wtedy, gdy wpiszesz słowo dokładnie tak, jak jest wyświetlane?

A: Jak wspomniał Jean-Luc, dysponujemy niewielką biblioteką wstępnie skonfigurowanych monitów, które można znaleźć po prawej stronie interfejsu użytkownika generowania monitów.


P: W chwili obecnej w naszych projektach ustawienie wstępne GPT z monitami nie działa w przypadku ciągów, które mają tagi (żółte tagi dla znaczników, zawsze gdy w źródle występuje formatowanie). W takich przypadkach wstępnie ustawione ustawienia automatycznie przełączają się na inną maszynę tłumaczącą. Czy znasz obejście tego problemu i wiesz, jak ustawienie wstępne GPT działa również w przypadku ciągów znaków ze znacznikami?

A: Jak wspomniał Jean-Luc, przyjrzyjmy się konkretnym przykładom tagów i sprawdźmy, czy możemy udoskonalić monit, aby ignorował tagi w ciągach znaków


P: Czy to zadziała tak samo, jeśli będziemy pracować z językami z przypadkami?

A: Tak. Istnieją więc tak zwane języki o niskich zasobach. Tak więc modele, zazwyczaj modele, gdy próbują zebrać dane, i oczywiście najczęściej. Zdecydowana większość danych to dane w języku angielskim. Dlatego modele językowe lam dają najlepsze rezultaty w języku angielskim. Ale gdy próbujesz różnych innych języków. Zobaczysz, że jakość się pogorszy, a tłumaczony język będzie zawierał coraz mniej popularnych zwrotów. Prawdopodobnie najgorszym wynikiem byłoby to, że języki z wielką lub małą wielkością liter niekoniecznie są językami o małych zasobach. Więc tak, działa dobrze. Jeśli jednak chodzi o języki o niskich zasobach, warto wspomnieć o języku ormiańskim, a zarazem jednym ze skomplikowanych języków. Tak byś zrobił. Prawdopodobnie zobaczysz jakieś nieoczekiwane rezultaty. Ale zazwyczaj tak byś zrobił. Zobaczysz dobre wyniki dla przypadków.